Présentation Générale

MaDICS est un Groupement de Recherche (GDR) du CNRS créé en 2015. Il propose un écosystème pour promouvoir et animer des activités de recherche interdisciplinaires en Sciences des Données. Il est un forum d’échanges et d’accompagnement pour les acteurs scientifiques et non-scientifiques (industriels, médiatiques, culturels,…) confrontés aux problèmes du Big Data et des Sciences des données.
Pour en savoir plus…


Les activités de MaDICS sont structurées à travers des Actions et Ateliers. Les Actions rassemblent les acteurs d’une thématique précise pendant une durée limitée (entre deux et quatre ans). La création d’une Action est précédée par un ou plusieurs Ateliers qui permettent de consolider les thématiques et les objectifs de l’action à venir.


Le site de MaDICS propose plusieurs outils de support et de communication ouverts à la communauté concernée par les Sciences des Données:

  • Manifestations MaDICS : Le GDR MaDICS labellise des Manifestations comme des conférences, workshops ou écoles d’été. Toute demande de labellisation est évaluée par le Comité de Direction du GDR. Une labellisation rend possible un soutien financier pour les jeunes chercheuses et chercheurs. Une labellisation peut aussi être accompagnée d’une demande de soutien financier pour des missions d’intervenants ou de participants à la manifestation.
    Pour en savoir plus…
  • Réseaux MaDICS : pour mieux cibler les activités d’animation de la recherche liées à la formation et à l’innovation, le GDR MaDICS a mis en place un Réseau Formation destiné à divers publics (jeunes chercheurs, formation continue,…), un Réseau Innovation pour faciliter et intensifier la diffusion des recherches en Big Data, Sciences des Données aux acteurs industriels et un Club de Partenaires qui soutiennent et participent aux activités du GDR.
    Pour en savoir plus…
  • Espace des Doctorants : Les doctorants et les jeunes chercheurs représentent un moteur essentiel de la recherche et le GDR propose des aides à la mobilité et pour la participation à des manifestations MaDICS.
    Pour en savoir plus…
  • Outils de communication : Le site MaDICS permet de diffuser des informations diverses (évènements, offres d’emplois, proposition de thèses, …) liées aux thématiques de recherche du GDR. Ces informations sont envoyées à tous les abonnés de la liste de diffusion MaDICS et publiés dans un Calendrier public (évènements) et une page d’offres d’emplois.

Adhésion au GDR MaDICS : L’adhésion au GDR MaDICS est gratuite pour les membres des laboratoires ou des établissements de recherche publics. Les autres personnes peuvent adhérer au nom de l’entreprise ou à titre individuel en payant une cotisation annuelle.
Pour en savoir plus…


Manifestations à venir

Journées Ecoles Conférences et Séminaires

Actions, Ateliers et Groupes de Travail :

DAE DatAstro DSChem EXMIA GRASP RECAST SaD-2HN SIMDAC SimpleText TIDS  


Apr
30
Thu
2020
CHAINE DE TRAITEMENT DE DONNEES EN FLUX POUR LA SUPERVISION DE BATIMENTS INTELLIGENTS
Apr 30 – May 1 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : ICube – Université de Strasbourg
Durée : 3 à 6 mois
Contact : pierre.parrend@unistra.fr
Date limite de publication : 2020-04-30

Contexte :
L’exploitation des outils d’analyse de données pour le suivi de la qualité de l’environnement, des bâtiments et des infrastructures nécessite de traiter les données en flux, avec un temps de latence très court des évènements d’intérêt. Ce suivi doit être continu et robuste, et en particulier ne pas dépendre de la qualité des données reçues.
Les algorithmes d’analyse mis en œuvre doivent donc être choisis spécifique pour assurer cette robustesse. Ils doivent également supporter la mise en œuvre de réponses automatiques, et donc être fiables, c’est-à-dire avoir une très bonne précision (taux de faux positifs très faible) et fournir des bases solides pour mener des investigations complémentaires, et donc être explicables.

Les équipes CSTB et réseaux d’ICube propose donc un projet afin de réaliser une ‘Chaine de traitement de données en flux pour la supervision de bâtiments intelligents’.

La mission aura lieu sur 3 à 6 mois, entre février et août 2020, et se déroulera au sein de la plate-forme BICS du laboratoire ICube, en partenariat avec la plate-forme Inet Lab.

Sujet :
L’objectif du projet est d’identifier et de détecter des cas d’anomalies typiques des environnements ‘Industrie du Futur’, avec 2 cas d’utilisation : lignes de production industrielles et smart buildings.

Les principales étapes du projet sont :
• Mise en place du transfert de données entre INetLab et BICS
• Caractérisation des évènements d’intérêt typique pour un bâtiment intelligent : au niveau fonctionnel (données de capteurs) ; au niveau technique (données réseaux)
• Mise en place de la chaine de traitement des données en temps réel
• Mise en place de 2 briques d’analyse de données : 1) mécanisme de règles pour l’identification de cas problématiques connus ; 2) Machine Learning pour la détection d’anomalies en N dimensions
• Proposition de réactions typiques pour chaque type d’évènement, avec évaluation par l’administrateur en vue d’apprentissage et d’automatisation

Le projet doit préparer le déploiement d’une solution de reconfiguration automatique des nœuds réseaux et l’évaluation de la performance de cette reconfiguration.

Le livrable comprend :
• Une démonstration impliquant les organisations partenaires du projet
• Un document de conception ‘Data flow analysis for smart building (en anglais)
• Module spécifique BICS-Data ‘2-step-analysis’
• Rapport de Master/Fin d’étude
• Soutenance.
Il pourra être adapté selon l’évolution du projet.

Profil du candidat :
L’offre s’adresse à un étudiant en M1, M2, ou en 2ème ou 3ème année d’école d’ingénieur.

Si le projet donne lieu à des résultats particulièrement solides dans le cadre d’un stage de fin d’études, il pourra mener à une candidature à une thèse de doctorat en informatique.

Formation et compétences requises :
L’offre s’adresse à un étudiant en M1, M2, ou en 2ème ou 3ème année d’école d’ingénieur.

Si le projet donne lieu à des résultats particulièrement solides dans le cadre d’un stage de fin d’études, il pourra mener à une candidature à une thèse de doctorat en informatique.

Adresse d’emploi :
Laboratoire ICube, 11, Rue Humann, 67000 Strasbourg

Document attaché : Sujet-stage-FlowControl_Master1_2-Recherche.pdf

Développement d’un modèle prédictif de récupération après traumatisme crânien sévère
Apr 30 – May 1 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Institut de Neurosciences de la Timone (INT), Marseille
Durée : 4-6 mois
Contact : sylvain.takerkart@univ-amu.fr
Date limite de publication : 2020-04-30

Contexte :
Aujourd’hui la prise en charge des patients admis en réanimation après un traumatisme crânien sévère est soumise à la grande incertitude sur la récupération à long terme. Dans ce contexte, l’accès à des outils diagnostiques et pronostiques fiables et performants est un progrès majeur qu’accompagne la start-up BrainTale (http://www.braintale.fr/) en collaboration avec le groupe COMA, groupe de recherche associant le département d’anesthésie-réanimation de l’Hôpital de la Pitié-Salpêtrière (APHP, Paris) et le Laboratoire d’Imagerie Biomédicale (Sorbonnes Université, Paris), et avec l’équipe MECA de l’Institut de Neurosciences de la Timone (INT, Marseille; http://www.meca-brain.org/). L’approche innovante proposée aujourd’hui se base sur un traitement calibré des données d’IRM permettant des mesures robustes d’altérations microstructurelles cérébrales à partir de descripteurs définis a priori et de solutions d’apprentissage statistique adaptées se nourrissant d’une base de données de patients cérébrolésés unique au monde.

Sujet :
Dans la continuité de ces travaux, ce stage s’inscrit dans une collaboration entre l’équipe MECA et BrainTale qui vise à améliorer ces outils de diagnostic et pronostic en combinant des connaissances en neurosciences avec des méthodes d’intelligence artificielle innovantes. Le projet du / de la stagiaire consistera à améliorer le modèle pronostic existant en développant un nouveau pipeline basé sur une extraction de caractéristiques aléatoire et une stratégie ensembliste d’apprentissage. Le stage se déroulera à Marseille au sein de l’INT.

Profil du candidat :
dernière année d’école d’ingénieur ou M2

Formation et compétences requises :
Les trois compétences principales mise en oeuvres seront:
– apprentissage statistique, classification (par ex. Support Vector Machines, deep learning…)
– traitement d’image et/ou d’imagerie médicale
– très bon niveau en programmation (python ou autre langage)

De plus, on bon niveau en anglais et un intérêt pour les neurosciences seraient des plus.

Adresse d’emploi :
Institut de Neurosciences de la Timone
Campus Santé Timone
27 boulevard Jean Moulin
13005 Marseille
http://www.int.univ-amu.fr

Document attaché : 2020_sujet_stage_INT_BrainTale.pdf

Symbolic Data Analysis for robustness and flexibility of Heat Exchanger Network
Apr 30 – May 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : INP ENSIACET Toulous
Durée : dès que possible
Contact : rachid.ouaret@toulouse-inp.fr
Date limite de publication : 2020-04-30

Contexte :
The performance of an industrial site is greatly dependent of process variations and its ability to satisfy the operational specifications under exogenous disturbances. The Internship subject is about Heat Exchanger Network (HEN) sensibility and flexibility modeling and analysis. Flexibility of the HEN is one of factors which affect the operability of the system. Sensibility analysis investigates how the variation in the output of a model can be attributed to variations of its input factors. Numerous works are dedicated to the design of HEN for nominal operating systems. However, the operability aspects of such networks have not been extensively studied.

Sujet :
The performance of an industrial site is greatly dependent of process variations and its ability to satisfy the operational specifications under exogenous disturbances. The Internship subject is about Heat Exchanger Network (HEN) sensibility and flexibility modeling and analysis. Flexibility of the HEN is one of factors which affect the operability of the system. Sensibility analysis investigates how the variation in the output of a model can be attributed to variations of its input factors. Numerous works are dedicated to the design of HEN for nominal operating systems. However, the operability aspects of such networks have not been extensively studied.

The robustness of such systems is determined by its ability to absorb disturbances without changing the flow rates of utilities. Since the early 80’s, studies were carried out on the flexibility aspect of HEN to solve the operability issue with works such as Saboo et al. (1985) [#Saboo1985] and Swaney and Grossmann (1985) [#swaney1985index] that use non-linear programming (NLP) to optimize flexible HEN.

Using linear programming, Floquet et al. (2016) [#floquet2016analysis] introduced a methodology based on interval arithmetic concepts for modeling impacts of process parameters fluctuations on the behavior of the HEN. Assuming that some parameters can vary on an interval [min, max], a linear system can be solved where the left term involves interval matrices (fluctuations of the HEN characteristics, except topology) and right hand side involves fluctuations of input temperature of the HEN. Following the same idea, the project aims is the use symbolic data analysis (SDA) to study how uncertainty in the output of a model can be apportioned to different sources of uncertainty in the model input factors. The choice of SDA is that it can offer an efficient and effective way of knowledge extraction from correlated sources of uncertainty.

The main objective of the internship is to acquire a mechanistic understanding of Robustness aspects of HEN using symbolic data analysis. Targeted student will work towards a tool that in the long term would ease a lot the conversion of Mathematical real algorithm description into Python/Julia/R, or Matlab fix point computations.

[1] Pascal Floquet, Gilles Hétreux, Raphaele Hétreux, and Lucille Payet. Analysis of operational heat exchanger network robustness via interval arithmetic. In Computer

Aided Chemical Engineering, volume 38, pages 1401–1406. Elsevier, 2016.
[2] Alok K Saboo, Manfred Morari, and Duncan C Woodcock. Design of resilient processing plants viii. a resilience index for heat exchanger networks. Chemical Engineering Science, 40(8):1553–1565, 1985.

[3] Ross E Swaney and Ignacio E Grossmann. An index for operational flexibility in chemical process design. part ii: Computational algorithms. AIChE Journal, 31(4):631– 641, 1985.

Profil du candidat :
1. Currently, enrolled in Master-level degree program

2. Student with a strong interest in data analysis

3. Some knowledge of Symbolic Analysis techniques and/or arithmetic will be appreciated

4. Demonstrates effective written and oral communication, integrity, critical thinking/analytical skills, agility/flexibility, a continuous learning mindset and teamwork and collaboration

Formation et compétences requises :
Currently, enrolled in Master-level degree program

Adresse d’emploi :
INP ENSIACET Toulouse
http://www.ensiacet.fr/en/index.html

Document attaché : 202003120902_Internship_ProposalsData.pdf

May
1
Fri
2020
Deep learning approaches for rhythm analysis in the context of audio, gestures and movement synchronization
May 1 – May 2 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Research center LGI2P, 7 rue Jules Renard. IMT Mines Alès. 30100 Alès.
Durée : 6 months
Contact : patrice.guyot@mines-ales.fr
Date limite de publication : 2020-05-01

Contexte :
This internship is funded by the LGI2P through the context of the creation of a new research unit, named EuroMov DHM, that will include researchers from Euromov, Montpellier (http://euromov.eu/home) and LGI2P, IMT Mines Ales (http://www.mines-ales.fr). Works will be mainly conducted in the LGI2P at Alès. Visits to Euromov, Montpellier, will also be considered.

Sujet :
Synchronization of temporal events is a key feature for audio-visual perception, motor coordination and social interactions. For example, speech comprehension is enhanced through synchronized perception of visual signals like lip movements [Stev10], and motor coordination relies partly on the ability of coupling movement with audio-visual events [Ald17].

This project will focus on deep learning approaches to reveal temporal synchronization of heterogeneous data, through supervised and unsupervised tasks. Different kind of recurrent networks will be considered, as for example phased lstm [Nei16]. Moreover, we will also evaluate the potential application of spiking neural network [Tav18] on these temporal data.

For applications, we will consider data of different natures and complexities. Firstly, synchrony among groups will be studied through sets of temporal signals. This data originate from experiments on social interaction through the monitoring of oscillatory hand motion. The second application lies in the analysis of rhythmic patterns in audio data. In that scope, we aims at highlighting structural rhythms in music, for example tempo, or finer characterization such as musical groove. Perceptive are automatic drum transcription, and clinically oriented musical recommendation for the treatment of Parkinson’s disease [Coc18].
Thirdly, we aim at analysis of movement from Mocap data and or video. In particular, we will focus on walking, in the scope of diagnostic assistance and movement signature.

The main tasks of this internship are:
• State of art in deep learning for temporal data
• Data collection and annotation
• Application of unsupervised and supervised learning methods
• Evaluation and comparison of approaches

References
[Ald17] Alderisio, F., Fiore, G., Salesse, R. N., Bardy, B. G., & di Bernardo, M. (2017). Interaction patterns and individual dynamics shape the way we move in synchrony. Scientific reports, 7(1), 6846.
[Coc18] Cochen De Cock, V., Dotov, D.G., Ihalainen, P. et al. Rhythmic abilities and musical training in Parkinson’s disease: do they help?. npj Parkinson’s Disease 4, 8 (2018)
[Nei16] Neil, D., Pfeiffer, M., & Liu, S. C. (2016). Phased lstm: Accelerating recurrent network training for long or event-based sequences. In Advances in neural information processing systems (pp. 3882-3890).
[Stev10] Stevenson, R. A., Altieri, N. A., Kim, S., Pisoni, D. B., & James, T. W. (2010). Neural processing of asynchronous audiovisual speech perception. Neuroimage, 49(4), 3308-3318.
[Tav18] Tavanaei, A., Ghodrati, M., Kheradpisheh, S. R., Masquelier, T., & Maida, A. (2018). Deep learning in spiking neural networks. Neural Networks.

Profil du candidat :
Masters in Computer Science, Applied Mathematics, or Signal processing

Formation et compétences requises :
Knowledge in Deep Learning is highly appreciated
Programming skills in Python (and libraries such as pytorch, numpy, scikit-learn or keras)
Knowledge in motion or music analysis is appreciated

Adresse d’emploi :
Research center LGI2P, 7 rue Jules Renard. IMT Mines Alès. 30100 Alès.

Document attaché :

Reinforcement learning for Qos routing in SDNs
May 1 – May 2 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Huawei France Research Center
Durée : 6 months
Contact : jeremie.leguay@huawei.com
Date limite de publication : 2020-05-01

Contexte :
The Network and Traffic Optimization research team of the Mathematical and Algorithmic Sciences Lab, Huawei France Research Center, located in the Paris area, is looking for internship candidates. The research will focus on developing machine learning algorithms to drive research and innovation in the context of traffic engineering.

Sujet :
The Software Defined Networks (SDN) paradigm has gained a lot of popularity in the recent years. It shifts the control plane of the network from the devices to a powerful centralized controller with a global view of the network. The controller can update policies and distribute them to routers in an online fashion based on its real-time perception of the network status. Current approaches for SDN routing relies on offline optimization tools relying on Operations Research algorithms but are not efficient to deal with variations of traffic. Online decision-making tools such as Reinforcement Learning (RL) are promising approaches to address this issue.

The main objectives of this internship are the following:
1. Study the state of the art of reinforcement learning methods for intelligent routing.
2. Evaluate the potential applicability of RL solutions on a specific routing problem.
3. Implement and compare the selected approaches on an emulated network.

Profil du candidat :

1. Good programming and scripting skills (C/C++/Java, Python)
2. Good knowledge of ML/RL techniques
3. Knowledge of networking is a plus

Formation et compétences requises :
Required Level: Msc in Computer science / Applied mathematics.

Adresse d’emploi :
Boulogne-Billancourt, Paris Area

Document attaché : 2020-Demande-de-stagiaire-Huawei_France_Research_Center_RL_ResourceAllocation.pdf

Jun
1
Mon
2020
Model learning with rational optimization and constraints
Jun 1 – Jun 2 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : CentraleSupelec/INRIA Saclay
Durée : 4-6 mois
Contact : laurent.duval@ifpen.fr
Date limite de publication : 2020-06-01

Contexte :
This subject is in close connection with Arthur Marmin’s PhD thesis (Rational models optimized exactly for chemical processes improvement), co-supervised by Marc Castella, Jean-Christophe Pesquet and Laurent Duval. The context of the subject is modeling of experimental data with a parametric family of functions.

Sujet :
For a long time, polynomial and rational functions have been playing a key role in that respect (calibration, saturation, system modeling, interpolation, signal reconstruction..) Their use is classically confined to least-square or least-absolute value regression. However, it is highly desirable in real-world applications to incorporate:
data-based penalties (positivity, interval bounds)
model and noise priors, such as power laws or variance stabilizing transforms,
statistical priors, such as robustness or sparsity.
Basically, from the modeling perspective, any cost function of practical interest can be approximated as accurately as desired by a polynomial. Nonetheless, optimizing multivariate rational function under polynomial constraints is a difficult problem when no convexity property holds. Recent mathematical breakthroughs have made it possible to solve problems of this kind in an exact manner by building a hierarchy of convex relaxations. The objective of this internship is to pursue the developments applied so far to signal restoration. We address here the quest for best model selection in experimental data fitting. We minimize a criterion composed of two terms. The first one is a fit measure between the model and recorded measurements. The second terms are sparsity-promoting (approximating the l0 count measure) and interval bound penalizations, weighted by positive parameters We choose terms as rational functions. The latter will be dealt with by subclasses (e.g. polynomials, homographic functions). The proposed methodology will be evaluated on the many models and experimental data available at IFP Energies nouvelles. A particular attention will be paid to the usability to data practitioners, by embedding the algorithms into an user-friendly interface, with help in choosing hyperparameters.

Details:
http://laurent-duval.eu/job-2020-internship-data-science-rational-models.html

Profil du candidat :
Engineering school, Master of science

Formation et compétences requises :
Optimization, statistics, computing

Adresse d’emploi :
CentraleSupelec/INRIA Saclay

Document attaché : IFPEN_2020_SUBJ_Rational-Function-Models-DATAIA-Internship-Data-Science.pdf

On Enhancing Knowledge Graphs with Provenance Support
Jun 1 – Jun 2 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Lamsade, Université Paris-Dauphine
Durée : 4 à 6 mois
Contact : kbelhajj@googlemail.com
Date limite de publication : 2020-06-01

Contexte :
Knowledge graphs can be viewed as large collections of interconnected entities enriched with semantic annotations. They have become powerful assets for enhancing search and are now widely used in both academia and industry. Well-known knowledge graphs include Google’s Knowledge Graph, Facebook’s Graph Search and Yago (see (Pan et al. 2017)). In the context of this internship, the focus will be on knowledge graphs that are available or can be exported as RDF datasets (Manola and Miller 2004) enhanced with RDF Schema (Guha and Brickley 2014) statements that capture relevant domain background knowledge.

Sujet :
By and large, available knowledge graphs lack provenance support (Cheney, Chiticariu, and Tan 2009). Provenance information informs on the how-about of entity, i.e., how they come to be, and can be used in a range of applications, e.g., to explain the results of a query or search, to propagate annotations among the enti- ties that constitute the knowledge graph, to learn attribution information, to name a few. The main objective of the internship will be to investigate how RDF knowledge graphs can be enhanced with provenance support. In doing so, the candidate will examine the different kinds of provenance information that can be collected and recorded and the computational complexity incurred by each, design an algorithmic solution, and implement it. For validation purposes, we will be using real knowledge graphs that are freely available under the aegis of the open linked data initiative.

Profil du candidat :
A master or Engineer student in computer science.

Formation et compétences requises :
– Semantic Web (RDF, RDFS)
– Python

Adresse d’emploi :
Université Paris-Dauphine, Place du Maréchal de Lattre de Tassigny, 75016 Paris

Document attaché : Master-Internship-1.pdf

Jun
30
Tue
2020
Apprentissage de représentations multi-modales d’IRM cérébrales pour la cartographie des différences individuelles
Jun 30 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Institut de Neurosciences de la Timone, Marseille
Durée : 3-5 mois
Contact : sylvain.takerkart@univ-amu.fr
Date limite de publication : 2020-06-30

Contexte :
En imagerie cérébrale, exploiter la complémentarité offerte par différentes modalités d’images doit permettre de s’affranchir des limitations de chacune des modalités. Dans cette optique, nous avons développé une méthode d’apprentissage de représentation multi-modales qui fusionne les informations offertes par différents types d’IRM (imagerie par résonance magnétique). Cette méthode est basée sur l’apprentissage profond, et nous avons démontré qu’une telle fusion permet de mieux cartographier les différences inter-individuelles observées dans des tâches de perception auditive, à partir de deux modalités (IRM fonctionnelle de repos et IRM fonctionnelle de tâche).

Ce projet est issu d’une collaboration inter-disciplinaire entre l’Institut de Neurosciences de la Timone et l’équipe d’Apprentissage du Laboratoire d’Informatique et des Systèmes, tous deux situés à Marseille.
http://www.int.univ-amu.fr

Home-summary

Sujet :
Ce stage s’inscrit dans la continuation de ce projet et vise à poursuivre ces travaux à la fois au niveau applicatif et méthodologique.
Dans un premier temps, l’étudiant.e procédera au traitement de données d’IRM cérébrales pour construire les caractéristiques données en entrée à cet algorithme sur une grande base de données ouverte, de type Human Connectome Project. Il.elle appliquera la méthode existante sur cette base de données afin d’évaluer quantitativement ses performances.
Dans un deuxième temps, l’étudiant.e travaillera sur des dévelopements méthodologiques visant à améliorer l’algorithme. Un des objectifs visera à généraliser l’algorithme pour qu’il fonctionne sur plus de deux modalités en ajoutant de nouveaux types d’images (IRM anatomique, IRM de diffusion).

Profil du candidat :
En école d’ingénieur ou en master.
Formation traitement d’images, imagerie médicale, apprentissage machine, sciences des données.

Formation et compétences requises :
– Très bon niveau en programmation python.
– Très bon niveau en apprentissage automatique (dont apprentissage profond).
– Connaissances en traitement d’image médicales
– Bon niveau en anglais.

Adresse d’emploi :
Institut de Neurosciences de la Timone,
27 boulevard Jean Moulin
13005 Marseille

Document attaché :

Apprentissage automatique sur données de spectroscopie de modifications d’ARN pour distinguer des stades de cancers
Jun 30 – Jul 1 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : LIRMM, CNRS UMR 5506
Durée : 6
Contact : rivals@lirmm.fr
Date limite de publication : 2020-06-30

Contexte :

Mots-clé : apprentissage automatique, statistique, épitranscriptome, marques épitranscriptomiques, développement, cancer

L’identification de bio-marqueurs spécifiques du cancer sont essentiels pour diverses prévisions et décisions médicales (diagnostic, prognostic, stratification de patients, évaluation de la pertinence d’une thérapie). Récemment, il a été montré que la régulation de l’expression des gènes est influencée par des modifications des bases des ARNs. Ces modifications qui sont dynamiquement contrôlées (ajoutées, lues ou effacées) sur une grande partie des ARNs produits dans les cellules. Contrairement à des mutations génétiques, ces modifications dites “épitranscriptomiques” ne changent pas la base, mais en quelque sorte la “décorent”. En outre, certaines de ses modifications ont été associées à divers cancers. Grâce à une plateforme montpellièraine unique en France (mis en place au sein de notre consortium), on peut étudier globalement par spectroscopie de masse la présence de ces modifications dans un échantillon de cellules.

Dans ce projets nous disposons des mesures d’une cinquantaine de modifications effectuées sur des tissus de patients sains et cancéreux. L’objet de ce stage est de développer une approche d’apprentissage automatique qui recherchent les combinaisons de modifications permettant de distinguer les cellules saines de cellules cancéreuses, voire de les relier au stade cancéreux.
Les tissus de patients sont collectés par un des partenaires, le SIRIC de Montpellier.

Sujet :

Mettre en place un analyse permettant de normaliser les mesures, d’étudier les corrélations entre les mesures de différentes marques, et de proposer des stratégies d’apprentissage automatique (machine learning) qui 1/ distinguent les échantillons de cellules saines de ceux de cellules cancéreuses, puis 2/ déterminent les modifications associées à différents stades d’un cancer.

References :
1. Delaunay, S. and M. Frye, RNA modifications regulating cell fate in cancer. Nat Cell Biol, 2019. 21(5): p. 552-559.
2. A.C. Muller and S. Guido. Introduction to Machine Learning with Python: A Guide for Data Scientists. O’Reilly (édition en Anglais et en Français).
3. Gilbert Saporta. Probabilités, analyse des données et Statistique. Technip. 2011.

Profil du candidat :
Prérequis et connaissances
– programmation en python
– apprentissage automatique
– analyse statistique
– goût pour les thématiques pluridisciplinaires

Qualités souhaitées :
– motivation
– programmation
– capacités de synthèse et d’analyse
– ouverture d’esprit.
– capacité d’échanges et de communication

Formation et compétences requises :
Master informatique, math appliquées, statistiques
Formation de “data analyst”

Adresse d’emploi :

Gratification : 520 euros mensuels.

Lieu : Montpellier
Structure d’accueil : équipe Méthodes et Algorithmes pour la Bioinformatique, LIRMM UMR 5506 CNRS & Univ Montpellier
Encadrants : E. Rivals (CNRS), A. David (INSERM)
Partenaires : IGF et SIRIC, tous deux à Montpellier.

Document attaché :

Modèles Auto-associatifs pour la Dispersion de Polluants dans l’Atmosphère
Jun 30 – Jul 1 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Inria, équipe Mistis et Phimeca
Durée : 12 mois
Contact : ; “>”Sylvain Girard, Phimeca” ;
Date limite de publication : 2020-06-30

Contexte :
Le projet MADiPA collaboration entre INRIA et Phimeca Engineering, subventionné par l’AMIES vise a développer une méthode de prévision de la dispersion de polluants dans l’atmosphère.

L’approche envisagée consiste à construire une approximation d’un modèle physique coûteux en utilisant des modèles Auto-Associatifs pour contourner la difficulté liée à la grande dimension des entrées et sorties.

Voir le fichier joint pour davantage de détails.

Sujet :
Modèles Auto-associatifs pour la Dispersion de Polluants dans
l’Atmosphère

Profil du candidat :
Le candidat est titulaire d’un doctorat en mathématique. Il maîtrise les notions fondamentales de
probabilité et statistique. Il s’intéresse à l’ingénierie et cherche à accroître sa culture scientifique et
industrielle. Il n’est pas rebuté par l’informatique scientifique et la programmation.

Formation et compétences requises :
Compétences requises :
– bon niveau en mathématique
– connaissances en probabilité et statistique
– connaissance du système d’exploitation Linux
– maîtrise du langage Python

Adresse d’emploi :
Le poste est localisé dans les bureaux de Phimeca au 18 boulevard de Reuilly à Paris.

Document attaché : PostDoc-Pḧimeca.pdf

Jul
20
Mon
2020
Modélisation et visualisation 3D de réseaux vasculaires
Jul 20 – Jul 21 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire CREATIS et LIRIS Lyon
Durée : 4-6 mois
Contact : carole.frindel@creatis.insa-lyon.fr
Date limite de publication : 2020-07-20

Contexte :
La modélisation physique de l’écoulement du sang dans les artères par résolution numérique des équations de dynamique des fluides permet de comprendre la survenue et l’évolution de pathologies graves comme l’accident vasculaire cérébral ou la rupture d’anévrisme. Il s’agit dans un premier temps de définir le domaine 3D dans lequel on veut modéliser l’écoulement sanguin. Cela est fait communément en utilisant un maillage surfacique en trois dimensions de la paroi artérielle. Ce domaine doit ensuite être divisé en un ensemble de petits éléments appelés cellules, formants un maillage volumique dans lequel les équations physiques pourront être résolues numériquement. Cette résolution permet d’obtenir une estimation de la pression et la vitesse du sang dans chacune des cellules du maillage.

Sujet :
Nous avons récemment implémenté un algorithme permettant d’obtenir un maillage de l’arbre vasculaire a partir d’informations de ligne centrale avec rayon. Le stage propose vise a compléter le pipeline existant par de nouvelles fonctionnalités. Il consistera principalement en la programmation du code permettant de réaliser les deux objectifs décrits ci-après. Le code devra s’intégrer dans le framework déjà existant, il sera donc codé en python, en utilisant des librairies graphiques comme VTK.

1 – Déformation du maillage
L’algorithme actuel produit des maillages tubulaires. Il s’agit d’une approximation qui est cohérente avec l’anatomie dans la plupart des cas, mais il serait intéressant de pouvoir mailler également des artères avec une section non circulaire. Pour cela, nous souhaiterions déformer le maillage surfacique tubulaire produit par l’algorithme pour le faire correspondre à la surface d’un autre maillage obtenu par segmentation d’images médicales. Cela peut être fait par projection des noeuds du premier maillage vers la surface du maillage de référence.

2 – Modélisation de la surface par des NURBS
L’analyse isogéométrique est une méthode qui permet de réaliser des simulations physique en s’affranchissant totalement de l’utilisation d’un maillage volumique. Avec cette approche, la surface du domaine d’etude est représentée mathématiquement par des fonctions B-splines rationnelles non uniformes (NURBS). Cette modélisation particulière présente l’avantage de réduire les erreurs de calcul dues a la discrétisation de la surface par les cellules d’un maillage lors de la résolution.
Ainsi, il serait intéressant d’ajouter au pipeline existant la possibilité de modéliser mathématiquement un réseau vasculaire plutôt que de le mailler.

Profil du candidat :
Etudiant en M1/M2 avec majeure en informatique

Formation et compétences requises :
Compétences requises :
 – Programmation python
 – Des notions en géométrie 3D et une expérience avec des librairies de visualisation/manipulation de maillages seraient un plus
Compétences développées:
 – Géométrie 3D, maillages surfaciques et volumiques
 – Modélisation par NURBS
 – Notions de résolution numérique d’équations et simulation physique
 – Application au domaine du médical

Adresse d’emploi :
Bâtiment Blaise Pascal (4ème étage)

7 Avenue Jean Capelle

69621 Villeurbanne Cedex

Document attaché : 202007201241_Sujet_arbre_vasculaire_2020.pdf

Oct
2
Fri
2020
Apprentissage automatique de données dans un environnement virtuel pour modéliser le comportement cognitif d’un patient atteint de la maladie d’Alzheimer.
Oct 2 – Oct 3 all-day

Annonce en lien avec l’Action/le Réseau : Formation

Laboratoire/Entreprise : Laboratoire Informatique, Biologie Intégrative et Systèmes Complexes – IBISC
Durée : 5 ou 6 mois
Contact : Khalifa.Djemal@ibisc.univ-evry.fr
Date limite de publication : 10/02/2020

Contexte :
Dans le cadre du projet AlzVR, nous souhaitons développer une application permettant la prédiction de la sévérité d’un patient atteint par l’Alzheimer.

Information : Le stage pourra se poursuivre également en doctorat.

Sujet :
La détection de signes des pathologies d’Alzheimer qui est une maladie neurodégénérative est une tâche très importante dans un système d’aide au diagnostic médical. En effet, La réalité virtuelle offre aujourd’hui des perspectives pour détecter des troubles liés à la maladie, évaluer son avancement et à terme pouvoir rééduquer le patient. Dans un premier temps, le candidat se familiarise avec l’environnement virtuel récemment développé au laboratoire IBISC. Il procèdera ensuite à son enrichissement permettant ainsi à un patient d’effectuer des parcours et des tâches spécialisées dans un scénario bien défini à l’avance. L’analyse de ces tâches conduit à l’évaluation par des calculs statistiques et des approches de classification de la sévérité de la maladie.

Profil du candidat :
Compétences requises :

– Programmation C/C++, Matlab, Unity 3D
– Des connaissances de base en traitement d’images
– Des connaissances des méthodes de classification, Machine learning

Formation et compétences requises :
Sujet de stage pour Master 2 ou équivalent, de préférence des spécialités suivantes :
– Apprentissage automatique, information et Contenu (Machine Learning),
– Réalité Virtuelle et Systèmes Intelligents
– Informatique Biomédicale,
– Informatique,
– Imagerie Biomédicale,

Adresse d’emploi :
Université Paris-Saclay, Univ. Evry
Laboratoire Informatique, Biologie Intégrative et Systèmes Complexes – IBISC
40 rue du Pelvoux, 91020 Evry, France.

Document attaché : Sujet-stage-Master2-Djemal-2019-2020.pdf

Nov
5
Thu
2020
Conception de systèmes complexes pour l’humanitaire: une capitalisation par une approche graphe
Nov 5 – Nov 6 all-day

Offre en lien avec l’Action/le Réseau : – — –/Innovation

Laboratoire/Entreprise : DISP (Décision et Information pour les Systèmes de
Durée : 1 semestre
Contact : chantal.bonnercherifi@univ-lyon2.fr
Date limite de publication : 2020-11-05

Contexte :
Chaque
année, il y a en moyenne 150 millions d’êtres humains affectés par l’une des 400 crises humanitaires
recensées. Ces crises sont le résultat de catastrophes naturelles telles que les tremblements de terre, le s
inondations ou encore les sècheresses.
Les opérations logistiques dans le contexte de la réponse à une crise humanitaire sont très différentes de ce qui se fait généralement dans le secteur privé. Différents auteurs se sont penchés sur la description de ce contexte particulier [1-3].
La complexité de la situation lors d’une crise humanitaire rend sa vision globale difficile. Plusieurs facteurs expliquent cette complexité :
– Les données disponibles en temps réel sont souvent incomplètes et dynamiques. Ce travail de récolte et de mise à jour de données prend du temps et n’est donc pas toujours traité en priorité.
– Les acteurs sont très variés (des petites ONG locales aux associations internationales, l’armée, le gouvernement…). Leurs moyens et capacités de coordination ne sont pas toujours alignés.
– Les appels de fonds, et donc le financement de la réponse, sont gérés en parallèle des opérations. La réponse humanitaire apportée aux personnes affectées dépend de la disponibilité de ces fonds. Le périmètre des actions menées et le nombre d’acteurs impliqués évoluent en conséquence.
– L’aspect humain est prépondérant. Quelques jours de retard sur les livraisons peuvent avoir un impact en termes de vies humaines. Une inégalité de traitement entre différentes régions touchées peut générer des mouvements de population, donc plus de camps à ouvrir pour gérer ces migrants.
De ce fait, des problèmes de coordination pour la réponse sont souvent constatés [4]. Nous pouvons ainsi observer des surconcentrations et un recouvrement d’interventions dans certaines zones, alors que d’autres sont involontairement délaissées.
A cela s’ajoute la dynamique du système. En effet, au cours même de la réponse à une crise humanitaire, la situation sur le terrain évolue. On peut citer entre autres, les répliques de tremblement de terre qui peuvent générer l’impraticabilité de certaines routes ou autres infrastructures logistiques, avant que la situation ne se débloque progressivement. De même, les besoins des personnes affectées peuvent évoluer au cours du temps, notamment lorsque les crises se complexifient (épidémies de choléra quelques semaines après un tremblement de terre…). L’écosystème des acteurs est lui aussi sujet à évolution avec par exemple le retrait d’un acteur, la destruction de locaux ou encore l’endommagement du matériel.
On comprend alors la difficulté d’atteindre des niveaux d’efficacité et d’efficience optimaux pour la coordination d’une réponse.

Sujet :
Afin donc de proposer une aide à la coordination et à la décision des plus adaptées, nous avons modélisé une crise humanitaire sous forme de réseau de réseaux. Les données à disposition des communautés étant de nature hétérogène et ne présentant pas de caractère de complétude, peu de travaux de recherche sur l’analyse de ces données à posteriori existent. L’originalité de ce travail préliminaire est donc double mais ne permet pas encore d’atteindre l’optimalité de la décision.
Il apparaît alors crucial de rendre dynamique ce modèle [5] et pouvoir viser une aide à la coordination et à la décision presque temps-réel. De nombreux travaux traitent dans la littérature cette problématique pour les réseaux de téléphonie mobiles. En particulier il est important de distinguer les problématiques de consensus décisionnel des acteurs qui sans cesse évolue en fonction des caractéristiques de la crise et de l’interaction entre les acteurs eux-mêmes. Il s’agira alors de se concentrer sur les problématiques de topologie évoluant dans le temps (concensus-based switching topologies) [6]. L’autre partie névralgique concerne la question de la résilience du réseau face aux multiples changements et modifications. Les indicateurs topologiques classiques comme la centralité d’intermédiarité (betweenness centrality) doivent en conséquence être mis en relation avec l’évolution temporelle du réseau. Là aussi un certain nombre de travaux abordent cette problématique surtout dans un cadre de robotique et d’attaques virales ou informatiques [7] et où les invariants topologiques sont optimisés et « asservis » au cours du temps pour sans cesse pallier aux vulnérabilités.
Dans ce travail, nous proposons de fait de modéliser et d’analyser ces aspects dynamiques de la réponse à une crise humanitaire sous la forme de graphes en abordant conjointement par un nouveau couplage les aspects de consensus décisionnels et de résilience.
[1] L. N. VanWassenhove, “Humanitarian aid logistics: supply chain management in high gear”. In: Journal of the Operational Research Society 57, 2006.
[2] G. Kovacs and K. M. Spens, “Humanitarian logistics in disaster relief operations”. In: International Journal of Physical Distribution LogisticsManagement 37.2, pp. 99 114, 2007.
[3] R. Oloruntoba, “Analysis of the Cyclone Larry emergency relief chain Some key success factors”. In: International Journal of Production Economics 126.1, pp. 85 101. ISSN: 0925 5273, 2010.
[4] A Charles, M Lauras, R Tomasini, Collaboration Networks Involving Humanitarian Organisations Particular Problems for a Particular Sector. IFIP Advances in Information and Communication Technology. 336. 157 165. 10.1007/978 3 642 15961 9_18. (2010)
[5] M. Warnier, V. Alkema, T. Comes, T. et al. Humanitarian access, interrupted: dynamic near real time network analytics and mapping for reaching communities in disaster affected countries. OR Spectrum 42, 815 834 (2020)
[6] G. Moutsinas, W. Guo. Node Level Resilience Loss in Dynamic Complex Networks. Sci Rep 10, 3599 (2020)
[7] T. Wheeler, E. Bharathi and S. Gil, “Switching Topology for Resilient Consensus using Wi Fi Signals,”
International Conference on Robotics and Automation ( Montreal, QC, Canada, 2019, pp. 2018 2024 (2019)

Profil du candidat :
Nous recherchons un·e candidat·e issu.e d’une formation en informatique de niveau M2 ou stagiaire ingénieur PFE. Il ou elle a un intérêt pour la recherche scientifique et des bases théoriques en graphes et réseaux complexes. Des notions de logistique/logistique humanitaire seront un plus.

Formation et compétences requises :
Modélisation de systèmes complexes, Théorie des graphes,
Science des réseaux, Réseaux complexes, (Un plus: Logistique/Logistique humanitaire)

Adresse d’emploi :
Laboratoire DISP (Décision et Information pour les Systèmes de Production)
IUT Lumière Lyon 2
Campus Portes des Alpes
160 Boulevard de l’Université
69500 Bron

Document attaché : 202011051523_2021_StageM2_Humanitaire_DISP.pdf

Nov
6
Fri
2020
Modélisation à base de graphes du processus de conception de produits
Nov 6 – Nov 7 all-day

Offre en lien avec l’Action/le Réseau : – — –/Innovation

Laboratoire/Entreprise : DISP (Décision et Information pour les Systèmes de
Durée : 1 semestre
Contact : chantal.bonnercherifi@univ-lyon2.fr
Date limite de publication : 2020-11-06

Contexte :
La recherche de la meilleure maîtrise possible du processus de conception de systèmes complexes reste un enjeu important. En effet, ceci permettrait de capitaliser les bonnes pratiques et de les réutiliser efficacement pour le développement de nouveaux produits.
Durant le processus, un grand nombre de données sont générées et manipulées soit à partir de connaissances déjà existantes soit à partir de connaissances nouvellement créées. Pour atteindre donc des objectifs de capitalisation et de traçabilité tout au long du processus de conception, des travaux de recherche restent à mener, pour profiter encore plus de la digitalisation de ce processus (à travers les approches PLM et Jumeau numérique).

Sujet :
De fait, il est possible de représenter tous ces éléments d’information (données produits, processus et activités, objet de connaissance, etc.) et leurs interactions sous forme de graphes. La modélisation à base de graphe est une approche innovante dans le contexte du processus de conception de produits, pour identifier des bonnes pratiques à capitaliser, pour tracer des données ou des décisions, etc.
Une des difficultés pour cette modélisation dans notre contexte est que ces graphes seront complexes, dues à la multiplicité des nœuds, à leurs nombreuses interactions, à la prise en compte des sémantiques, etc.
L’objectif de ce travail de recherche est de proposer une modélisation à base de graphe à partir de plusieurs cas terrains de processus de conception de systèmes, et d’identifier le méta-modèle associé. Une fois ces graphes modélisés, un travail d’analyse permettra d’identifier des opportunités de capitalisation à partir de pattern, d’évaluation de performances, etc.

Profil du candidat :
Nous recherchons un·e candidat·e issu.e d’une formation en informatique (Modélisation, Graphes) de niveau M2 ou PFE ingénieur en génie mécanique (conception de produits). Il ou elle a un intérêt pour la recherche scientifique, des bases théoriques en graphes, réseaux complexes.

Formation et compétences requises :
Modélisation, Analyse, Synthèse, Programmation

Adresse d’emploi :
Laboratoire DISP
IUT Lumière Lyon 2
Campus Portes des Alpes
160 Boulevard de l’Université
69500 Bron

Document attaché : 202011060940_2021_StageM2_DISP_GrapheConceptionProduits.pdf

Nov
16
Mon
2020
Stage M2 : Visualisation de l’activité d’un site marchand de produits illicites sur le darkweb
Nov 16 – Nov 17 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire Bordelais de Recherche en informatique
Durée : 5-6 mois
Contact : bruno.pinaud@labri.fr
Date limite de publication : 2020-11-16

Contexte :
Cf doc joint.

Sujet :
Cf doc joint.

Profil du candidat :
Formation en informatique BAC+5

Formation et compétences requises :
Formation en informatique avec un goût prononcé pour le développement. Une formation en visualisation d’informations sera appréciée.

Adresse d’emploi :
Université de Bordeaux

Document attaché : 202011161555_Stage M2 2020_2021.pdf

Nov
30
Mon
2020
Apprentissage profond pour la rééducation personnalisée
Nov 30 – Dec 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRIMAS, équipe MSD, Mulhouse, France
Durée : 6 mois
Contact : maxime.devanne@uha.fr
Date limite de publication : 2020-11-30

Contexte :
Le stage proposé se déroulera au sein de l’institut IRIMAS et l’équipe MSD (Modélisation et Sciences des données). Il s’inscrit dans le contexte de la rééducation assistée par un robot coach, jouant ainsi le rôle d’intermédiaire entre un kinésithérapeute et son patient. Le robot Poppy, équipé d’une caméra permettant la capture du mouvement humain, apprend un mouvement idéal à partir de démonstrations de kinésithérapeutes. Ensuite, le robot évalue de manière automatique les patients atteints de lombalgie pendant leur séances de rééducation, en les corrigeant leur mouvement si nécessaire.
Cependant, l’apprentissage de modèles à partir de démonstrations d’experts (sujets sains) n’est pas toujours directement applicable pour l’analyse des exercices des patients nécessitant une rééducation. En effet, un patient ayant des difficultés à lever un bras suite à un accident ne pourra pas effectuer de manière idéale un exercice sollicitant son bras. Il est alors crucial d’adapter le modèle appris en détectant et prenant en compte cette contrainte physique dans l’analyse du mouvement du patient. Durant le stage, il s’agira ainsi de développer des algorithmes d’apprentissage profond adaptatifs permettant d’évaluer les performances des patients en considérant leurs limites physiques et douleurs éventuelles.

Sujet :
La/le stagiaire aura pour objectifs, dans un premier temps de réaliser un état de l’art sur les différentes méthodes d’apprentissage profond pour l’analyse de mouvement humain. En effet, les travaux de recherche portant sur l’analyse de mouvements à partir de vidéos sont très nombreux mais se limitent pour la plupart à des problèmes de reconnaissance de gestes, d’actions ou d’activités. Différemment, nous nous intéresserons à l’analyse détaillée des mouvements pour le calcul de similarité, l’évaluation de la qualité et la détection d’anomalies. En particulier, différentes architectures de réseaux de neurones seront analysées et comparées sur les aspects de précision mais aussi de coût de calcul. Dans un deuxième temps, la/le stagiaire devra développer l’algorithme choisi et l’évaluer sur des données réelles de mouvements de rééducation de patients mis à disposition. Enfin, il s’agira d’étendre l’algorithme implémenté pour permettre l’adaptation automatique aux limites physiques des patients ainsi qu’à leurs éventuelles douleurs.

Profil du candidat :
La/le candidat(e) doit être inscrit(e) en Master 2 (ou équivalent) en Informatique.

Formation et compétences requises :
– Compétences avancées requises en programmation Python
– Des connaissances et/ou expériences de apprentissage profond et bibliothèques associées seraient un plus

Adresse d’emploi :
Institut IRIMAS, équipe MSD, Mulhouse France.
Contact : Maxime Devanne (maxime.devanne@uha.fr)

Document attaché : 202010271931_Proposition_stage_2021_fr.pdf

Deep learning for speech perception
Nov 30 – Dec 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire d’Informatique et Systèmes LIS – UMR
Durée : 5-6 months
Contact : marxer@univ-tln.fr
Date limite de publication : 2020-11-30

Contexte :
Recent deep learning (DL) developments have been key to breakthroughs in many artificial intelligence (AI) tasks such as automatic speech recognition (ASR) [1] and speech enhancement [2]. In the past decade the performance of such systems on reference corpora has consistently increased driven by improvements in data-modeling and representation learning techniques. However our understanding of human speech perception has not benefited from such advancements. This internship sets the ground for a project that proposes to gain knowledge about our perception of speech by means of large-scale data-driven modeling and statistical methods. By leveraging modern deep learning techniques and exploiting large corpora of data we aim to build models capable of predicting human comprehension of speech at a higher level of detail than any other existing approaches [3].

This internship is funded by the ANR JCJC project MIM (Microscopic Intelligibility Modeling). It aims at predicting and describing speech perception at the stimuli, listener and sub-word level. The project will also fund a PhD position, the call for applications will be published in the coming months. A potential followup in PhD could be foreseen for the successful candidate of this internship.

Sujet :
In an attempt to using DL methods for speech perception tasks, this internship aims at participating in the first Clarity challenge. This challenge tackles the difficult task of performing speech enhancement for optimising intelligibility of a speech signal in noisy conditions. The challenge opens in January 2021, it is the first of its kind with the objective of advancing hearing-aid signal processing and the modelling of speech-in-noise perception.

Several research directions will be explored, including but not limited to:
perceptual-based loss functions
advanced speech representation learning pipelines
DL-based multichannel processing techniques

Given that the baseline and data of the challenge are to be published in January 2021 and the difficulty of the task remains uncertain, a backup plan is foreseen for this internship that is more tightly related to the context of the ANR project.

In the MIM project, we focus on corpora of consistent confusions: speech-in-noise stimuli that evoke the same misrecognition among multiple listeners. In order to simplify this first approach to microscopic intelligibility prediction, we will restrict to single-word data. This should reduce the lexical factors to aspects such as usage frequency and neighborhood density, significantly limiting the complexity of the required language model. Consistent confusions are valuable experimental data about the human speech perception process. They provide targets for how intelligibility models should dif-ferentiate from automatic speech recognition (ASR) systems. While ASR models are optimised to recognise what has been uttered, the proposed models should output what has been perceived by a set of listeners. A sub-task encompasses creating baseline models that predict listeners’ responses to the noisy speech stimuli. We will target predictions at different levels of granularity such as predicting the type of confusion, which phones are misperceived or how a particular phone is confused.

Several models regularly used in speech recognition tasks will be trained and evaluated in predicting the misperceptions of the consistent confusion corpora. We will first focus on well established models such as GMM-HMM and/or simple deep learning architectures. Advanced neural topologies such as TDNNs, CTC-based or attention-based models will also be explored, even though the relatively small amount of training data in the corpora is likely to be a limiting factor. As a starting point we envisage solving the 3 tasks described in [3] consisting of 1) predicting the probability of occurrence of misrecognitions at each position of the word, 2) given the position, predicting a distribution of particular phone misperceptions, and 3) predicting the words and the number of times they have been perceived among a set of listeners. Predictions will be evaluated using the metrics also defined in [3] and random and oracle predictions will be used as references. These baseline models will be trained using only in-domain data and optimized on word recognition tasks.

Profil du candidat :
The candidate shall have the following profile:

– Master 2 level or equivalent in one of the following fields: machine learning, computer science, applied mathematics, statistics, signal processing

– Good English written and spoken language skills

– Programming skills, preferably in Python

Formation et compétences requises :
Furthermore the ideal candidate would have:

– Experience in one of the main DL frameworks (e.g. PyTorch, Tensorflow)

– Notions in speech or audio processing

Adresse d’emploi :
Laboratoire d’Informatique et Systèmes – LIS – UMR CNRS 7020​ –​ ​Université de Toulon Campus de la Garde – Bât X – CS 60584 – 83041 TOULON Cedex 09

Document attaché : 202011301229_LIS offre stage M2 MIM (2).pdf

Fusion des données Sentinel-2 et ALS par des méthodes d’apprentissage profond
Nov 30 – Dec 1 all-day

Offre en lien avec l’Action/le Réseau : MACLEAN/– — –

Laboratoire/Entreprise : UMR TETIS
Durée : 6
Contact : dino.ienco@irstea.fr
Date limite de publication : 2020-11-30

Contexte :
Le projet Protest (PROspective TErritoriale SpaTialisée) (https://protest.irstea.fr/) est un projet de recherche appliquée financé par l’ADEME qui vise à construire une méthodologie d’analyse territoriale de la biomasse forestière en s’appuyant sur 1/ une cartographie haute résolution de la ressource et de ses conditions de mobilisation, 2/ des scénarios de gestion intégrant le contexte socio-économique local et global, 3/ des modèles d’évolution forestière à moyen/long terme, et 4/ des modules d’évaluation des services écosystémiques. Le territoire d’étude est le Parc Naturel Régional du Massif des Bauges.
La cartographie des ressources forestières a été réalisée en s’appuyant sur des relevés d’inventaire terrain (323 placettes mesurées en forêt au niveau du Parc) et sur des données Lidar aéroportées (https://protest.irstea.fr/). Le lidar est une technologie particulièrement intéressante pour mesurer la structure de la végétation . Utilisées avec des données de référence terrain elles permettent de développer des modèles pour prédire des paramètres forestiers à partir de variables de structure qui sont issues des nuages de points 3D Lidar. Une fois établis, les modèles peuvent ensuite être extrapolés à la totalité de la zone d’étude, conduisant à la cartographie de certains paramètres forestiers utiles aux gestionnaires . Dans le cadre du projet PROTEST, l’ONF a ainsi produit des cartes de la surface terrière, du % de gros bois en surface terrière, du diamètre dominant et des grands types de peuplements (résineux purs, dominantes, feuillus, purs, dominants et mélanges).
Certaines études ont montré l’intérêt de combiner les données Lidar avec l’information spectrale d’images provenant de capteurs spatiaux multispectraux à haute résolution spatiale (e.g., Monnet et al., 2015) ou de capteurs hyperspectraux aéroportés (e.g., Zhao et al. 2018).  Actuellement, l’offre en données de télédétection spatiale adaptées au suivi des écosystèmes forestiers évolue rapidement. La mission Sentinel-2 apporte par exemple une richesse spectrale à haute résolution spatiale précieuse pour identifier la composition et l’état des peuplements (Grabska et al., 2019; Sheeren et al., 2016), et ce avec une couverture systématique et une fréquence de revisite inédite à ces résolutions. De par leurs caractéristiques les données Sentinel-2 apportent une information complémentaire à celle des données lidar. Leur potentiel pour caractériser les forêts du Parc Naturel Régional du Massif des Bauges n’a cependant pas encore été évalué. Or ces données sont distribuées gratuitement (programme Copernicus de l’ESA) et peuvent donc être facilement mobilisées pour la gestion des territoires.
En parallèle, les approches d’apprentissage profond se sont développées et facilitent l’analyse de jeu de données de télédétection volumineux et complexes comme les séries temporelles (Interdonato et al., 2019), les données multi-capteurs (Ienco et al., 2019) ou pour faire des analyses multi-résolutions (Benedetti et al., 2018).
En s’appuyant sur des méthodes d’apprentissage profond, l’objectif de ce stage est d’évaluer le potentiel de séries temporelles Sentinel 2 et de la fusion de données issues de nuages de points ALS et d’images Sentinel-2 pour la cartographie des peuplements et de la ressource forestière du Parc Naturel Régional (PNR) du Massif des Bauges. Un premier sous-objectif consistera à identifier le potentiel des données Sentinel-2 pour la caractérisation et la cartographie de la composition spécifique. Un second sous-objectif visera à évaluer l’intérêt de la fusion entre données dérivées des nuages de points ALS et Sentinel-2 pour améliorer la cartographie des différents types de peuplements et, éventuellement, la caractérisation de certains attributs forestiers estimés initialement à partir des seules données lidar.

• Benedetti, P., Ienco, D., Gaetano, R., Ose, K., Pensa, R. G., & Dupuy, S. (2018). M3Fusion: A Deep Learning Architecture for Multiscale Multimodal Multitemporal Satellite Data Fusion. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 11(12), 4939-4949.
• Bouvier, M., Durrieu, S., Fournier, R. A., & Renaud, J. P. (2015). Generalizing predictive models of forest inventory attributes using an area-based approach with airborne LiDAR data. Remote Sensing of Environment, 156, 322-334.
• Dalponte, M., Bruzzone, L., & Gianelle, D. (2008). Fusion of hyperspectral and LIDAR remote sensing data for classification of complex forest areas. IEEE Transactions on Geoscience and Remote Sensing, 46(5), 1416-1427.
• Durrieu, S., Vega, C., Bouvier, M., Gosselin, F., Renaud, J.-P., Saint-André, L. (2015). Optical remote sensing of tree and stand heights. In: Prasad S. Thenkabail, dir., Land Resources Monitoring, Modeling, and Mapping with Remote Sensing (p. 449-485). Remote Sensing Handbook, 2. Boca Raton, USA : CRC Press. 37
https://prodinra.inra.fr/record/386094
• Grabska, E., Hostert, P., Pflugmacher, D., & Ostapowicz, K. (2019). Forest Stand Species Mapping Using the Sentinel-2 Time Series. Remote Sensing, 11(10), 1197.
• Ienco, D., Interdonato, R., Gaetano, R., & Minh, D. H. T. (2019). Combining Sentinel-1 and Sentinel-2 Satellite Image Time Series for land cover mapping via a multi-source deep learning architecture. ISPRS Journal of Photogrammetry and Remote Sensing, 158, 11-22.
• Interdonato, R., Ienco, D., Gaetano, R., & Ose, K. (2019). DuPLO: A DUal view Point deep Learning architecture for time series classificatiOn. ISPRS journal of photogrammetry and remote sensing, 149, 91-104.
• Lim, K., Treitz, P., Wulder, M., St-Onge, B., & Flood, M. (2003). LiDAR remote sensing of forest structure. Progress in physical geography, 27(1), 88-106.
• Munoz, A., Bock, J., Monnet, J. M., Renaud, J. P., Jolly, A., & Riond, C. (2015). Évaluation par validation indépendante des prédictions des paramètres forestiers réalisées à partir de données LiDAR aéroporté, Revue Française de Photogrammétrie et Télédétection, 211-212.
• Monnet, J. M., Chirouze, É., & Mermin, É. (2015). Estimation de paramètres forestiers par données Lidar aéroporté et imagerie satellitaire RapidEye: Étude de sensibilité. Revue Française de Photogrammétrie et Télédétection, 211-212.
• Van Leeuwen, M., & Nieuwenhuis, M. (2010). Retrieval of forest structural parameters using LiDAR remote sensing. European Journal of Forest Research, 129(4), 749-770.
• Véga, C., Renaud, J. P., Durrieu, S., & Bouvier, M. (2016). On the interest of penetration depth, canopy area and volume metrics to improve Lidar-based models of forest parameters. Remote Sensing of Environment, 175, 32-42.
• Zhao, Y., Zeng, Y., Zheng, Z., Dong, W., Zhao, D., Wu, B., & Zhao, Q. (2018). Forest species diversity mapping using airborne LiDAR and hyperspectral data in a subtropical forest in China. Remote Sensing of Environment, 213, 104-114.

Sujet :
Les principales étapes envisagées pour la réalisation du stage sont :
• Analyse bibliographique sur l’utilisation des systèmes lidar et des images Sentinel-2 pour le suivi des écosystèmes forestiers.
• Mise en place du jeu de données :
◦ Prise en main des données existantes (bdd terrain, données ALS, métriques ALS utilisées dans les modèles ONF)
◦ Téléchargement d’une série temporelle d’images Sentinel-2 (images géoréférencées et en réflectance)
• Identification (par analyse de la littérature) et calcul d’indices spectraux d’intérêt pour la classification des types de végétation à partir des images Sentinel-2.
• Évaluation de l’apport des données Sentinel-2 pour la détermination et la cartographie de la composition spécifique des forêts du PNR du Massif des Bauges ;
◦ La composition spécifique sera définie au niveau des placettes inventoriées selon différentes typologies (en particulier, en tenant compte ou non du statut dominant des arbres).
◦ Pour chaque typologie, la combinaison de dates et de bandes spectrales ou d’indices spectraux la plus adaptée pour discriminer les différents types sera identifiée puis utilisée pour classer les images. La qualité des différentes classifications sera analysée.
• Evaluation de la fusion des données Sentinel-2 et ALS pour la caractérisation des forêts
◦ Les variables issues des images Sentinel-2 seront combinées avec les métriques lidar utilisées pour la caractérisation des grands types de peuplements (résineux purs, dominantes, feuillus, purs, dominants et mélanges) afin d’améliorer la qualité des classification (taux d’erreur actuel de classification des placettes = 11%)
◦ Les variables Sentinel-2 seront aussi utilisées pour l’estimation de certains paramètres forestiers de structure (e.g., surface terrière, %de gros bois) en complément des métriques Lidar. Les modèles d’estimation lidar étant en théorie dépendant du type de peuplement, les données Sentinel-2 pourront intervenir au niveau d’une stratification préalable ou être intégrée directement dans les modèles de régression.
◦ Les résultats avec et sans données Sentinel-2 seront comparés
• Rédaction du rapport et préparation de la soutenance.

Profil du candidat :
• Master II ou dernière année d’école ingénieur
• Compétences : programmation informatique et géomatique
• Bonne connaissance des méthodes de machine learning et deep learning
• Des connaissances en foresterie sont un plus
• Goût pour la recherche scientifique et l’interdisciplinarité
• Maîtrise de l’anglais et bonne capacité rédactionnelle 

Formation et compétences requises :
• Master II ou dernière année d’école ingénieur
• Compétences : programmation informatique et géomatique
• Bonne connaissance des méthodes de machine learning et deep learning
• Des connaissances en foresterie sont un plus
• Goût pour la recherche scientifique et l’interdisciplinarité
• Maîtrise de l’anglais et bonne capacité rédactionnelle 

Adresse d’emploi :
UMR TETIS, 500 Rue Jean François Breton, 34090 Montpellier

Document attaché : 202010261642_Stage_M2_Bauges_forets_ALS_Sentinel2_Protest.pdf

Multi-scale graph representation learning for remote sensing image analysis
Nov 30 – Dec 1 all-day

Offre en lien avec l’Action/le Réseau : MACLEAN/– — –

Laboratoire/Entreprise : IRISA (OBELIX team)
Durée : 6 months
Contact : minh-tan.pham@irisa.fr
Date limite de publication : 2020-11-30

Contexte :
In the past few years, the amount of earth observation missions using remote sensing technologies has increased dramatically, providing a huge number of multimodal data coming from different sensors: optical, radar, lidar, etc. The need of efficient and reliable methods for multimodal remote sensing data analysis becomes crucial to exploit their complementary information for tackling various applications such as land-cover mapping and updating, scene understanding, urbanization trend detection and prediction, etc. Among modern techniques, object-based approach using graph model appears to be a promising solution.

Sujet :
This internship proposal aims at studying the ability of graph structures to model and characterize the spatial relationships of objects and regions from an image at different scales. That means we are interested to work on object/region levels, not the pixel level from the image. From the achieved graph structures, recent frameworks based on graph representation learning (e.g. graph convolutional neural networks, graph autoencoder) and graph distance metric learning could be investigated to perform structured graph embedding into robust feature spaces. For remote sensing applications, we are interested in various tasks including image retrieval, classification and scene matching, with applications to ecological or humanitarian challenges. More specifically, this work will concentrate on extracting meaningful spatial graphs that can be used for reasoning (akin to [5]). The work will leverage on theoretical works developed in the team [6] to design sensible loss between graphs objects to learn efficiently neural networks that will predict the graph structure.

Potential outcomes of the internship will lead to publications in remote sensing, computer vision or machine learning fields, depending on the nature of the contributions. Let us finally note that this internship will be part of the AI chair OTTOPIA funded by ANR (starting beginning of 2021), for which potential fundings are available for the candidate to enter a PhD track after the internship.

For more information: https://www-obelix.irisa.fr/files/2020/10/stageM2_graph_2020.pdf

Profil du candidat :
Student Master 2, Ecole d’Ingénieur or equivalent with excellent academic track;

Formation et compétences requises :
• Background in computer science and/or machine/statistical learning and/or applied mathematics for signal and image processing;
• Excellent programming in Python (familiar with one of deep learning packages, such as PyTorch or Tensorflow, is a must.)

Adresse d’emploi :
Université Bretagne Sud – IRISA (OBELIX team: https://www-obelix.irisa.fr/), Vannes 56000, France

Document attaché : 202010141228_stageM2_graph_2020.pdf

Stage R&D – Intégration de TRISKELE à OTB
Nov 30 – Dec 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRISA/équipe OBELIX
Durée : 6 mois
Contact : francois.merciol@irisa.fr
Date limite de publication : 2020-11-30

Contexte :
L’équipe OBELIX (OBsErvation de L’environnement par Imagerie compleXe, www.irisa.fr/obelix) est une jeune équipe de l’IRISA, au caractère international marqué. Elle s’intéresse aux thématiques de l’analyse et la fouille de données (image) en lien avec des problématiques environnementales. Les données traitées sont
massives, multidimensionnelles (multi- ou hyper-spectrales), bruitées, hétérogènes (multi-sources) et présentent un caractère spatio-temporel (séries d’images). Un partenariat a été établi avec le CNES et SIRS-CLS concernant l’analyse d’images satellite. Dans ce cadre l’équipe a développé une librairie et des logiciels C++ permettant une représentation hiérarchique des images du non de TRISKELE (https://gitlab.inria.fr/obelix/triskele/).

Sujet :
L’objectif du stage consiste donc dans un premier temps en un état des lieux des différentes sources bibliographique de TRISKELE [1,2] et OTB [3]. Puis de mettre en avant les différences de stratégie de traitement. OTB réalise des traitements localisés et permet de gérer les données en flux. Triskele de part les caractéristiques hiérarchiques opte pour un traitement global. Cependant, Triskele offre également un tuilage pour paralléliser les calculs. Le manuel d’utilisation de TRSISKELE se trouve ici : http://francois.merciol.fr/IRISA/2020_Triskele_Manual.pdf

Pour plus des informations: https://www-obelix.irisa.fr/files/2020/10/2020-Stage-IRISA-Merciol.pdf

Profil du candidat :
Master Recherche, Master 2 ou Ecole d’Ingénieurs

Formation et compétences requises :
Traitement d’image (expérience de l’imagerie aérienne, satellite, télédétection appréciée)
Maîtrise de l’anglais (langue de travail de l’équipe, littérature scientifique)
Maîtrise des outils de rédaction (Latex)
Maîtrise de la programmation et du développement (C++, cmake, GIT)
Esprit d’analyse
Travail en équipe

Adresse d’emploi :
IRISA, Bâtiment ENSIBS, Campus de Tohannic, 56000 Vannes

Document attaché : 202010280858_2020-Stage-IRISA-Merciol.pdf