Présentation Générale

 



           
Huitième édition du Symposium MaDICS

Ce rendez-vous annuel rassemble la communauté MaDICS afin de mettre en lumière les avancées récentes en sciences des données, à travers un programme scientifique riche comprenant des conférences invitées (keynotes), des ateliers thématiques, des tables rondes et des sessions de posters.
Ces temps forts favorisent des échanges scientifiques à la fois stimulants et conviviaux.

Une Session Poster sera spécialement consacrée aux jeunes chercheuses et jeunes chercheurs souhaitant présenter leurs travaux en analyse et gestion de données et dans les domaines interdisciplinaires autour de la Science des Données. Cette session sera également l’occasion d’échanger avec des collègues académiques et des acteurs industriels sur les thématiques de recherche présentées.

Dates importantes :

  • Soumission de posters : au plus tard le 23 mars 2026
  • Retour : 9 avril 2026
  • Symposium : les 2 et 3 juin 2026 à Avignon

Nous vous invitons d’ores et déjà à réserver ces dates dans votre agenda

Pour en savoir plus…

MaDICS est un Groupement de Recherche (GDR) du CNRS créé en 2015. Il propose un écosystème pour promouvoir et animer des activités de recherche interdisciplinaires en Sciences des Données. Il est un forum d’échanges et d’accompagnement pour les acteurs scientifiques et non-scientifiques (industriels, médiatiques, culturels,…) confrontés aux problèmes du Big Data et des Sciences des données.
Pour en savoir plus…


Les activités de MaDICS sont structurées à travers des Actions et Ateliers. Les Actions rassemblent les acteurs d’une thématique précise pendant une durée limitée (entre deux et quatre ans). La création d’une Action est précédée par un ou plusieurs Ateliers qui permettent de consolider les thématiques et les objectifs de l’action à venir.


Le site de MaDICS propose plusieurs outils de support et de communication ouverts à la communauté concernée par les Sciences des Données:

  • Manifestations MaDICS : Le GDR MaDICS labellise des Manifestations comme des conférences, workshops ou écoles d’été. Toute demande de labellisation est évaluée par le Comité de Direction du GDR. Une labellisation rend possible un soutien financier pour les jeunes chercheuses et chercheurs. Une labellisation peut aussi être accompagnée d’une demande de soutien financier pour des missions d’intervenants ou de participants à la manifestation.
    Pour en savoir plus…
  • Réseaux MaDICS : pour mieux cibler les activités d’animation de la recherche liées à la formation et à l’innovation, le GDR MaDICS a mis en place un Réseau Formation destiné à divers publics (jeunes chercheurs, formation continue,…), un Réseau Innovation pour faciliter et intensifier la diffusion des recherches en Big Data, Sciences des Données aux acteurs industriels et un Club de Partenaires qui soutiennent et participent aux activités du GDR.
    Pour en savoir plus…
  • Espace des Doctorants : Les doctorants et les jeunes chercheurs représentent un moteur essentiel de la recherche et le GDR propose des aides à la mobilité et pour la participation à des manifestations MaDICS.
    Pour en savoir plus…
  • Outils de communication : Le site MaDICS permet de diffuser des informations diverses (évènements, offres d’emplois, proposition de thèses, …) liées aux thématiques de recherche du GDR. Ces informations sont envoyées à tous les abonnés de la liste de diffusion MaDICS et publiés dans un Calendrier public (évènements) et une page d’offres d’emplois.

Adhésion au GDR MaDICS : L’adhésion au GDR MaDICS est gratuite pour les membres des laboratoires ou des établissements de recherche publics. Les autres personnes peuvent adhérer au nom de l’entreprise ou à titre individuel en payant une cotisation annuelle.
Pour en savoir plus…


Manifestations à venir

Journées Ecoles Conférences et Séminaires

Actions, Ateliers et Groupes de Travail :

CODA DAE DatAstro DSChem EXMIA GINO GRASP RECAST SaD-2HN SIMDAC SimpleText TIDS  


Jan
7
Fri
2022
Scalabilité horizontale dans les pipelines de données
Jan 7 – Jan 8 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : SAP / LIP6 Sorbonne Université
Durée : 6 Mois
Contact : hubert.naacke@lip6.fr
Date limite de publication : 2022-01-07

Contexte :
Aujourd’hui des entreprises gèrent leurs données avec une grande variété d’applications développées indépendamment. Or ces applications n’ont pas été conçues pour communiquer entre elles et il n’est pas envisagé de les migrer vers un système commun. Néanmoins, le besoin est fort de Concevoir des nouveaux services de gestion et d’analyse de données qui valoriseront la donnée présente. Cela pose le problème de faire coopérer efficacement des applications, en particulier celles qui gèrent des grands volumes de données. Ainsi, pour faciliter la circulation de données entre les applications et définir des nouveaux services intégrant des données massives, des pipelines de données sont conçus.

Un pipeline de données [JHM04] est une séquence ou un graphe d’opérations sur des données. Une opération peut simplement déplacer des données ou effectuer des traitements complexes incluant la collecte de données de plusieurs sources, leur transformation, la génération de modèles par apprentissage et le stockage dans plusieurs destinations. En pratique, un pipeline peut contenir des centaines d’opérations et il peut évoluer à plusieurs reprises en étant complété avec des nouvelles opérations ou de nouvelles données. Ainsi, face au nombre croissant de pipelines à concevoir et déployer, il est crucial de disposer :

1. d’un langage de haut niveau pour définir des pipelines,

2. d’outils automatiques pour déployer et contrôler l’exécution d’un pipeline.

Les avancées technologiques récentes en matière de virtualisation et de conteneurisation telles que Kubernetes [Pou21] permettent de configurer, en langage Yaml, le déploiement d’un ensemble de tâches afin d’automatiser leur déploiement. Toutefois, Yaml décrit les objets déployés (services, pod, conteneur) mais manque d’abstraction pour décrire des pipelines de données de manière suffisamment déclarative et extensible. C’est pourquoi, la société SAP a conçu un nouveau langage de définition de pipeline qui décrit l’enchainement des opérations (tâches) en spécifiant les échanges de données et la configuration de l’environnement d’exécution (techniques de virtualisation et conteneurisation).

[Ber14] David Bernstein. Containers and cloud: From lxc to docker to kubernetes. IEEE Cloud Computing, 1(3):81–84, 2014.

[JHM04] Wesley M Johnston, JR Paul Hanna, and Richard J Millar. Advances in dataflow programming languages. ACM computing surveys (CSUR), 36(1):1–34, 2004.

[Pou21] Nigel Poulton. The Kubernetes Book. Amazon, 2021.

Sujet :
L’objectif de ce stage est de proposer une méthode pour instancier et déployer automatiquement et efficacement des pipelines de données. Cela soulève plusieurs défis scientifiques et techniques :

– Déploiement automatique : chaque opération du pipeline correspond à un programme (Python, node.JS, …) ou à un appel vers une API externe (par exemple, job Spark) qui est déployé en utilisant une image/containeur Docker [Ber14] adaptée. A partir de la description d’un pipeline, il s’agit de le déployer sur une plateforme Kubernetes dans le cloud (par exemple Google Kubernetes Engine ou Elastic Kubernetes Service d’Amazon).

– La parallélisation des opérations dans plusieurs pods permet d’augmenter la scalabilité horizontale du pipeline, mais nécessite également la définition d’opérateurs de partitionnement de données (par clé ou fenêtrage) pour répartir les traitements sur des partitions indépendantes.

– Le regroupement de plusieurs opérations dans le même pod: ceci permet réduire les échanges de données entre pods qui sont remplacées par des communications moins couteuses entre les threads dans le même pod.

Travail à réaliser: Le ou la stagiaire abordera en priorité le défi de la parallélisation et traitera les points suivants :

1. Prise en main de l’environnement d’exécution. Etat de l’art sur les services Kubernetes, le déploiement automatique de pods et la génération d’images docker.

2. Parallélisation d’une opération : Implanter différents opérateurs de partitionnement adaptés à la distribution de données ordonnées (séquences, flux) et non-ordonnées (ensembles).

3. Traduire la spécification d’un pipeline, contenant des opérations parallélisées, en un déploiement yaml qui doit répliquer les pods s’exécutant en parallèle et contenir des nouveaux pods dédiés au
partitionnement des données.

4. Définir des use-cases et conduire des expérimentations pour mesurer les performances obtenues.

5. Selon le temps disponible le ou la stagiaire pourra étudier l’optimisation du pipeline en combinant les stratégies de regroupement d’opérations dans un même pod et de parallélisation d’un pod. En particulier, ces stratégies sont limitées par un certain nombre de contraintes liées aux types d’images dockers disponibles et au protocole de communication entre pods. Il s’agit de proposer une méthode pour déterminer quelles sont les opérations à regrouper et quelles sont celles à paralléliser afin de maximiser les performances d’un pipeline.

Une perspective intéressante est de répondre aux besoins d’élasticité dans des scénarios sur des flux de données dynamiques (avec des changements de fréquence et des “bursts”). Il s’agit d’étudier l’implantation de stratégies dynamiques qui prennent un compte ces changements pour adapter le nombre de pods déployés aux besoins. Ceci est particulièrement important dans les déploiements sur des services cloud qui impliquent des coûts financiers.

Profil du candidat :
On cherche un étudiant ou une étudiante motivé(e) avec une bonne expérience en programmation (Python, Java) et en bases de données (optimisation, big data). Des connaissances techniques sur Docker/Kubernetes et sur les pipelines de données sont un atout.

Formation et compétences requises :
M2 Informatique ou équivalent

Adresse d’emploi :
SAP-France, Levallois-Perret

LIP/Sorbonne Université, Paris

Document attaché : 202112141329_Stage_LIP6_SAP_2021(1).pdf

Jan
10
Mon
2022
AI for Science: Physics Based Deep Learning for Modeling Complex Dynamics. Application to Climate
Jan 10 – Jan 11 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Sorbonne Universite – Equipe Machine Learning and
Durée : 6 mois
Contact : patrick.gallinari@sorbonne-universite.fr
Date limite de publication : 2022-01-10

Contexte :
AI for science is concerned with the exploration of machine learning for scientific computing in domains traditionally dominated by physics models (first principles). We consider here the modeling of complex dynamical systems characterizing natural phenomena, a recent and fast growing research direction with a focus on climate modeling applications and with the objective of combining model based physics and machine learning approaches.

Sujet :
Objective

The global objective is the development of new models integrating physics prior knowledge and deep learning (DL) for the modeling of spatio-temporal dynamics characterizing physical phenomena such as those underlying earth-science and climate observations. The classical modeling tools for such dynamics in physics and applied mathematics rely on partial differential equations (PDE). We then consider situations where the physical prior background is provided by PDEs. Two main directions will be explored:

– Hybrid systems – Interfacing Deep neural Networks (DNNs) and PDE

– Domain generalization for deep learning as dynamical models
Depending on the progress on the first topic, one will consider the issue of domain generalization of hybrid models.

– Application to climate data: the application will target the modeling of the dynamics of ocean circulation, which is a component of climate models.

Profil du candidat :
Master or engineering degree in computer science or applied mathematics.

Formation et compétences requises :
The candidate should have a strong scientific background with good technical skills in programming.

Adresse d’emploi :
Machine Learning and Information Access team – MLIA – https://mlia.lip6.fr, Sorbonne University, 75005 Paris, Fr

Document attaché : 202112031804_2021-12-MLIA-Internship-Deep-Learning-Physics.pdf

Analyse collaborative dans le décisionnel pour tou.tes
Jan 10 – Jan 11 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire ERIC
Durée : 5 à 6 mois à partir
Contact : sabine.loudcher@univ-lyon2.fr
Date limite de publication : 2022-01-10

Contexte :
L’analyse collaborative dans le contexte de la Business Intelligence (BI) a été étudiée selon différents points de vue, mais reste rare et se concentre principalement sur des aspects techniques. Il n’existe pas de solution globale à ce jour.

Sujet :
Le stage comportera 2 volets :
– Définition d’une typologie des moyens collaboratifs pertinents pour l’analyse BI
Cette tâche est importante pour obtenir à la fois une vue d’ensemble globale des méthodes de collabo-ration pertinentes pouvant être utilisées dans la BI et une idée précise de la manière dont les utilisa-teur/trices pourraient bénéficier de la collaboration. L’analyse collaborative comprend le partage d’ana-lyse, le mashup, l’annotation, la comparaison, la publication…

– Conception / spécifications / implémentation d’une architecture pour l’analyse collaborative qui s’inscrira dans le développement global du projet ANR
L’architecture développée inclura la gamme de propositions déterminées dans la typologie précédente. Un schéma sera dessiné pour représenter le processus collaboratif envisagé. Des spécifications devront être proposées avant la mise en œuvre. L’ensemble du processus devra également être évalué sur un cas d’usage déjà constitué.

Profil du candidat :
Business Intelligence, programmation/programmation web, gestion de données, rigueur.

Formation et compétences requises :
Master d’informatique ou équivalent

Adresse d’emploi :
laboratoire ERIC, Université Lyon 2, campus Porte des Alpes, Bron, Rhône, France

Document attaché : 202110200745_Stage_BI4People_2022.pdf

Detecting Forming Exoplanets in Hyperspectral Data
Jan 10 – Jan 11 all-day

Offre en lien avec l’Action/le Réseau : BigData4Astro/– — –

Laboratoire/Entreprise : Institut de Planétologie et d’Astrophysique de Gr
Durée : 3 à 5 mois
Contact : mickael.bonnefoy@univ-grenoble-alpes.fr
Date limite de publication : 2022-01-10

Contexte :
More than 4500 exoplanets have been discovered as of now, most of them being formed billions of years ago. The recent direct imaging detection of planets still in the process of formation [1] opens an unprecedented observing window on the initial stages of planetary system assembly (tens of millions of years).
The discovery of forming exoplanets was made possible thanks to the advances of efficient adaptive optics systems coupled to medium-resolution integral field spectrographs (IFS), producing hyperspectral data at high spatial and spectral resolutions. The rich diversity of these data can be used for efficiently removing the bright stellar halo and isolating the sparse signal (line-emission) produced by the planets. The data processing methods implemented thus far remain simple and do not allow for a robust evaluation and rejection of false positives.

Sujet :
Several powerful and versatile methods (anomaly detection, match filters, etc) have been proposed for isolating scarce signals in hyperspectral data with various applications (remote sensing, ground-based astronomy, medical imaging, etc). The student will work on adapting these methods to detect forming exoplanets in hyper-spectral data collected on the MUSE instrument operating at the Very-Large Telescope (VLT, Chile). The work will rely on existing codes available in Python and developed by collaborators. The student will also evaluate the methods using standard approaches (ROC curves, etc).

This internship is introductive to a PhD thesis funded by the French National Research Agency (ANR). A separate call for candidates for the PhD position will be issued in the spring of 2022.

Profil du candidat :
We are looking for a Master Student (Second year master student or equivalent) with a background in Data Science and strong interest in astrophysics. The student should show a proficiency for solving complex problems rigorously and for dealing with data and algorithms. She/He should have excellent writing skills in English (French is a plus) and be able to present her/his work. Teamwork skill is essential.

Formation et compétences requises :
Master signal/image processing or equivalent. Willing to continue in academia (PhD).

Adresse d’emploi :
IPAG
414 Rue de la Piscine
38400 SAINT MARTIN D’HERES
FRANCE

Document attaché : 202110200832_ANR internship – Detecting Forming Exoplanets in Hyperspectral Data.pdf

Looking for exoplanets molecular content: inverse problem approach to optimize data reduction
Jan 10 – Jan 11 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Institut de Planétologie et d’Astrophysique de Gr
Durée : >4 mois
Contact : philippe.delorme@univ-grenoble-alpes.fr
Date limite de publication : 2022-01-10

Contexte :
Exoplanets are planets orbiting other stars than the Sun. Since their luminosity is orders of magnitude smaller than their host star, finding them and characterizing their properties is extremely challenging and necessitate very careful data analysis and data calibration. For years astronomers used empirical calibrations to improve data quality, but recent publications by data scientists have shown that an inverse problem approach with minimal empirical information can improve data reduction, especially for integrated field spectrographs, that produce both an image and a spectra for each pixel in the image. Notably it does remove very efficiently systematic errors from the early data reductions steps, thus improving the full reduction chain. These improvements are key to allows the most advanced data algorithms to reveal their full potential, enabling reliable analysis of the molecular content of exoplanet atmospheres. With the higher spectral resolution of instruments such as MUSE, SINFONI and soon ERIS, we can detect spectral lines associated with individual molecules and perform molecular mapping to improve the detection and characterization of exoplanets. In fine, each of these developments will help in the coming years with the ultimate goal to search for life in the atmospheres of Earth-like planets with the next generation of extremely large telescopes.

Sujet :
The work will take place within the ANR project FRAME, that aims at finding accreting young exoplanets. The intern will be based at IPAG in Grenoble, home of the FRAME team and will also have the opportunity to collaborate with researchers from CRAL in Lyon. The intern is expected to read and take the time to understand the inverse problem approach of reducing direct imaging data targeted at finding exoplanets. The existing algorithm (PIC 1) is applied to low resolution integrated field spectrographs, and the aim of the internship is to adapt the algorithm to higher resolution instruments that can characterize the molecular content of exoplanet atmospheres. The intern will have access to raw and reduced data of such higher resolution instruments (notably SINFONI and ERIS), and with the help of his/her supervisor he/she is expected to develop a data reduction tool adapted to higher spectral resolution instruments and if possible, to improve it using information coming from astrophysical and detector physics knowledge of the problem. The supervisor will also provide benchmark datasets, some including real planets, reduced with the “traditional” empirical approach, against which to estimate advantages and drawbacks of each approach. Since this work is an open research question, unexpected issues will probably arise, and the longer the internship, the most likely significant results can be achieved. However we do not expect the intern to fully resolve the problem during the course of the internship, and we have funding for a PhD in continuation of this project, also involving observations, improvement of advanced data analysis tools and direct application to look for massive exoplanets and characterize their atmospheres.

Profil du candidat :
Niveau M2 ou équivalent

Formation et compétences requises :
Prerequisites:
– curiosity
– correct linear algebra basis
– enthusiasm to deal with open questions
– Interest for astrophysics

Adresse d’emploi :
Institut de Planétologie et d’Astrophysique de Grenoble
OSUG-A
414, Rue de la Piscine
Domaine Universitaire
38400 St-Martin d’Hères
(France)

Segmentation d’images de microscopie électronique par réseaux profonds.
Jan 10 – Jan 11 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIS UMR 7020
Durée : 4 à 6 mois
Contact : marc-emmanuel.bellemare@univ-amu.fr
Date limite de publication : 2022-01-10

Contexte :
Dans le cadre d’un projet collaboratif de recherche biomédicale sur l’endocardite infectieuse (EI) nous souhaitons développer une approche par réseaux profonds (deep-learning) pour la segmentation d’images de microscopie électronique à balayage dans le but d’analyser l’ultrastructure de valves cardiaques. Ce projet s’appuie sur une collaboration entre le laboratoire Informatique et Systèmes (LIS), expert dans l’analyse d’image, et le laboratoire Mephi (IHU Méditerranée Infection), expert en microbiologie et en microscopie électronique. L’EI est une pathologie grave, associée à un diagnostic difficile et une grande mortalité (Habib 2019). L’EI est caractérisée par une infection bactérienne ou fongique de l’endocarde avec une destruction des valves cardiaques et la formation d’un dépôt fibrino-plaquetaire inflammatoire et infecté, ou végétation. Malgré l’amélioration des stratégies diagnostiques et thérapeutiques, l’incidence et la gravité de la maladie semblent rester inchangées au fil des ans. La microscopie électronique à balayage (MEB) est une technique de microscopie électronique capable de produire des images en haute résolution de la surface d’un échantillon. Par une approche innovante par MEB, nous avons démontré une hétérogénéité de l’ultrastructure des vegetations d’EI qui dépend du microorganisme infectieux (Hannachi 2020). Cette approche innovante a ainsi montré sa force mais elle s’appuie sur une analyse experte des images qui reste manuelle et fastidieuse.

Sujet :
L’objectif du stage est de développer une méthode de réseaux profonds pour accélérer l’analyse des images des végétations, c’est-à-dire pour identifier et quantifier automatiquement les éléments biologiques présents (plaquettes, fibrine, globules, bactéries). Pour cela, il s’agira dans un 1er temps de définir la meilleure stratégie en terme de résolution/grossissement des acquisitions en MEB pour appliquer une segmentation. Dans un 2nd temps nous appliquerons des algorithmes par apprentissage profond (Khadangi 2021) avec un « pipeline » de traitements adaptés. Nous disposons déjà d’une base importante d’images d’échantillons de valves cardiaques pathologiques qui permettra grâce à nos expertises de définir le meilleur protocole d’étude à implémenter en routine avec une attention particulière portée sur la précision des réseaux profonds (Hostin 2021).

Profil du candidat :
Le candidat ou la candidate de niveau Bac+5, formé(e) au traitement des images, sera intéressé(e) par un projet pluridisciplinaire et l’imagerie médicale.

Formation et compétences requises :
La programmation des algorithmes se fera avec le langage python et les réseaux profonds seront développés avec l’API PyTorch. Des compétences en classification ou en mathématiques appliquées seront particulièrement appréciées.

Adresse d’emploi :
Le stage se déroulera à Marseille dans les locaux de l’équipe MEPHI de l’IHU Méditerranée Infection ou dans ceux de l’équipe Image & Modèles du LIS à St Jérôme (site de Polytech’), selon les besoins.

Document attaché : 202112031634_Sujet_Master2_SegmentationSEM_final.pdf

Self-supervised learning for the detection of brain anomalies in MRI imaging
Jan 10 – Jan 11 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : laboratoire CREATIS
Durée : 5-6 months
Contact : carole.lartizien@creatis.insa-lyon.fr
Date limite de publication : 2022-01-10

Contexte :
The vast majority of deep architectures for medical image analysis are based on supervised methods requiring the collection of large datasets of annotated examples. Building such annotated datasets is hardly achievable, especially for some specific tasks, including the detection of small and subtle lesions, which are sometimes impossible to visually detect and thus manually outline. This is the case for various brain pathologies including Parkinson’s disease.

An alternative methodological framework is that of anomaly detection in an unsupervised context (also called self-supervised). It consists in learning a model of representation of normality from the healthy data only, and then to consider as anomalies the test samples that deviate too much from normality. This last step is usually performed by calculating the error between the original and the reconstructed data from their projection in the latent representation space.

We have developed an expertise in the field of anomaly detection methods for the analysis of multi-modality brain images.

Sujet :
We have developed an expertise in the field of anomaly detection methods for the analysis of multi-modality brain images, and recently applied it to the detection of early forms of Parkinson’s disease in Parkinson’s disease in multiparametric MRI, in collaboration with the Centre de Neurosciences (GIN) and INRIA Grenoble.

The purpose of this project is to improve the performance achieved with the current model architecture by exploring methodological research axes in the domains of deep latent representation learning and visualisation (see attached pdf file for details).

The successful candidate will have access to the PPMI database (https://www.ppmi-info.org/accessdata-specimens/download-data) containing multiple images of controls and parkinsonian patients in different modalities and as well as to computing resources (CREATIS and/or CNRS supercomputer).

Profil du candidat :
Candidate should have background either in machine learning and/or deep learning or image processing and some experience in both fields as well as good programming skills.

We are looking for an enthusiastic and autonomous student with strong motivation and interest in multidisciplinary research (image processing and machine learning in a medical context). The candidate will also have the opportunity to interact with a PhD student working on this project.

See a complete description on https://www.creatis.insa-lyon.fr/site7/fr/node/47143

Formation et compétences requises :
Candidate should have a background either in machine learning and/or deep learning or image processing as well as good programming skills. Experience with deep learning libraries such (TensorFlow, Pytorch, scikit-learn) would be apreciated.

Adresse d’emploi :
Laboratoire CREATIS
INSA Lyon
21 rue Jean Capelle
69621 Villeurbanne cedex

Document attaché : 202112031401_Master_Neuro_SelfSupervised_Park_2021_22_eng.pdf

Stage M2 au LIFO Orléans – IA et Education
Jan 10 – Jan 11 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIFO – Orléans
Durée : 5 mois
Contact : guillaume.cleuziou@univ-orleans.fr
Date limite de publication : 2022-01-10

Contexte :
Améliorer l’efficacité pédagogique des plateformes d’entraînement à la programmation est une problématique en pleine effervescence qui nécessite de construire des représentations fines et exploitables des programmes d’apprenants. Nous nous intéresserons dans ce stage à l’apprentissage de représentations (ou embeddings) de programmes à des fins pédagogiques.

Sujet :
L’apprentissage d’embeddings de programmes consiste à apprendre une représentation riche et condensée d’un programmes informatique sous forme d’un vecteur numérique de faible dimension. Il existe différentes stratégies d’apprentissage d’embeddings de programmes selon que l’on considère d’une part des méthodes supervisées ou non-supervisées et d’autre part selon la nature de la (ou des) représentation(s) primaire(s) exploitée(s) (séquence textuelle du code, arbre syntaxique abstrait, traces de variables, traces d’exécution, etc.).

L’objet de ce stage sera de réaliser une étude comparative des approches supervisées et non-supervisées parmi ces méthodes. En particulier nous nous intéresserons d’une part à l’approche code2vec (Alon et al., 2019) qui exploite de manière supervisée les arbres syntaxiques abstraits (AST) des programmes et d’autre part à l’approche code2aes2vec (Cleuziou&Flouvat, 2021) qui génère de façon non-supervisée des embeddings de programmes à partir de l’analyse conjointe des AST et des traces d’exécution des programmes.

Références.

Alon, U., M. Zilberstein, O. Levy & E. Yahav (2019). code2vec : Learning distributed repre-sentations of code. Proceedings of the ACM on Programming Languages 3(POPL), 1–29.

Cleuziou, G. & F. Flouvat (2021). Learning student program embeddings using abstract execution traces, in 14th International Conference on Educational Data Mining. Paris, France, Pp. 252-262. 06. 2021.

Wang, K., R. Singh, and Z. Su (2018). Dynamic neural program embeddings for program repair. In International Conference on Learning Representations (ICLR’2018).

Profil du candidat :
Étudiant en master et/ou en école d’ingénieur en Mathématiques/Informatique. Une expérience en Machine Learning et un intérêt pour l’analyse de données d’éducation seraient un plus.

Formation et compétences requises :
Étudiant en master et/ou en école d’ingénieur en Mathématiques/Informatique. Une expérience en Machine Learning et un intérêt pour l’analyse de données d’éducation seraient un plus.

Adresse d’emploi :
LIFO – Université d’Orléans

Document attaché : 202112060829_Annonce_StageM2_EDM_LIFO-LIFAT.pdf

Jan
15
Sat
2022
Stage Master 2 : Analyse de performance d’un réseau de neurones profond compressé
Jan 15 – Jan 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire I3S (Sophia Antipolis, France)
Durée : 4 à 5 mois
Contact : cabral@i3s.unice.fr
Date limite de publication : 2022-01-15

Contexte :
Les réseaux de neurones profonds sont devenus un élément incontournable de l’état de l’art pour diverses problématiques d’inférence complexe en traitement de données telles que la détection, la classification et la segmentation d’objets dans les images et vidéos. La complexité croissante de ces réseaux rend difficile leur implantation sur un système embarqué dans un contexte temps-réel. Par conséquent, la réduction de leur complexité en termes d’empreinte mémoire et de complexité de calcul est actuellement un sujet d’intense investigation de plusieurs équipes de recherche.

Pour réduire leur empreinte mémoire, les paramètres d’un réseau profond doivent être compressés. Différentes techniques, telles que l’élagage des poids du réseau [1], la quantification [2] ou une combinaison des deux [3], ont été appliquées. Avec la méthode proposée en [3], il a été montré de manière expérimentale qu’une forte réduction de l’empreinte mémoire peut être obtenue avec une très faible perte des performances d’inférence.

Des membres de l’équipe Signal, Images et Systèmes (SIS) du Laboratoire I3S s’intéressent à la compréhension théorique des effets de la compression sur les performances d’inférence d’un réseau profond, notamment, à donner une prédiction de la perte de performance en fonction du taux de compression des paramètres. Dans un cadre de classification binaire et en se focalisant sur la compression par la quantification des paramètres de la dernière couche du réseau, un travail récent de l’équipe [4] donne une approximation de la perte de justesse de classification introduite par la compression. Cette approximation est donnée en fonction des paramètres de la couche, des caractéristiques du problème de classification sous-jacent et du nombre de bits de quantification utilisé pour la compression.

Sujet :
L’approximation obtenue en [4] n’est valable que sous certaines hypothèses de travail, notamment sur les distributions des entrées de la dernière couche du réseau et sur la distribution des erreurs de quantification des paramètres. Le but premier de ce stage est de réaliser un certain nombre d’expériences pour vérifier ces hypothèses dans un cadre pratique, i.e. lorsque le réseau étudié est un réseau profond utilisé en pratique (ex. : ResNet [5]) et lorsque les données du problème de classification sont réelles (ex. : données CIFAR [6] ou ImageNet [7]). Ces expériences seront réalisées en langage python et nécessiteront l’utilisation de librairies dédiées à l’apprentissage profond (pytorch [8] ou tensorflow [9]).

Selon l’avancement du stagiaire, différentes pistes théoriques pourraient être explorées : adaptation des hypothèses de travail dans le cas où elles ne sont pas exactement vérifiées en pratique, extension de l’étude [4] à la compression de plusieurs couches du réseau, ou encore, extension de [4] à la classification multi-classes.

Références :
[1] S. Anwar, K. Hwang et W. Sung, “Structured pruning of deep convolutional neural networks,” JETC, vol. 13,no. 3, pp. 32:1-32:18, 2017.
[2] B. Jacob, S. Kligys, B. Chen, M. Zhu, M. Tang, A. G.Howard, H. Adam et D. Kalenichenko, “Quantization and training of neural networks for efficient integer-arithmetic-only inference,” IEEE CVPR, pp. 2704-2713, 2018.
[3] S. Han, H. Mao et W. J. Dally, “Deep compression: Compressing deep neural network with pruning, trained quantization and Huffman coding,” 4th ICLR, Y. Bengio and Y. LeCun, Eds., 2016.
[4] D. Resmerita, R. Cabral Farias, B. D. de Dinechin et L. Fillatre, “Distortion Approximation of a Compressed Softmax Layer,” IEEE SSP, pp. 491-495, 2021.
[5] K. He, X. Zhang, S. Ren et J. Sun, “Deep residual learning for image recognition,” IEEE CVPR, pp. 770-778, 2016.
[6] A. Krizhevsky et G. Hinton, “Learning multiple layers of features from tiny images,” 2009. https://www.cs.toronto.edu/~kriz/cifar.html
[7] J. Deng, W. Dong, R. Socher, L. J. Li, K. Li et L. Fei-Fei, “Imagenet: A large-scale hierarchical image database,” IEEE CVPR, pp. 248-255, 2009.
[8] https://pytorch.org/
[9] https://www.tensorflow.org

Profil du candidat :
Étudiant de Master 2 ou fin de cycle ingénieur avec une des spécialisations suivantes :
– Traitement statistique du signal
– Statistiques
– Science des données

Formation et compétences requises :
– Formation en traitement statistique du signal ou en statistiques.
– Maîtrise du langage python.
– Connaissance des réseaux de neurones profonds et des librairies python dédiées (pytorch et/ou tensorflow).
– Écriture de rapports scientifiques avec LaTex.

Adresse d’emploi :
Laboratoire d’Informatique, Signaux et Systèmes de Sophia-Antipolis (I3S) – UMR7271 – UNS CNRS
2000, route des Lucioles – Les Algorithmes – bât. Euclide B 06900 Sophia Antipolis – France

Document attaché : 202111011758_compression_reseaux_neurones_vf.pdf

Jan
17
Mon
2022
Adaptation d’algorithmes de recherche
Jan 17 – Jan 18 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIST3N, université de technologie de Troyes
Durée : 6 mois
Contact : frederic.bertrand@utt.fr
Date limite de publication : 2022-01-17

Contexte :
Collaboration de recherche avec une entreprise.
Début février 2022.

Sujet :
Le stage porte sur l’adaptation et l’évaluation des performances d’algorithmes de prédiction dans le domaine du processus mining/intelligence.

Profil du candidat :
Connaissances en machine learning et éventuellement dans les environnements cloud.
Langages principalement utilisés python et Julia.

Formation et compétences requises :
Stage de M2, de projet de fin d’études d’ingénieur.
Formation en informatique orienté ML/DL.

Adresse d’emploi :
Université de technologie de Troyes, Troyes.

M2 Internship :
Jan 17 – Jan 18 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LISIC
Durée : 6 months
Contact : gilles.delmaire@univ-littoral.fr
Date limite de publication : 2022-01-17

Contexte :
Hyperspectral Imaging for precision agriculture is a fast-growing field with the advent of compact hyperspectral imagers that provide multiple wavelengths.
In this context, an ongoing Phd thesis, funded by the PMCO and the ULCO university, aims at extracting potato leaf spectra along a field by scanning it with a portable hyperspectral imager. Through
these experimentation, it is expected to detect and locate the affected plants by late blight. To this end, extracting a consistent datacube representing part of the field is needed.
To this goal, the alignment of datacube layers obtained from a spatio-spectral compact hyperspectral imager (funded by the FEDER and Hauts-de-France Region) appears as a challenging task. Indeed, this
kind of imager is designed to scan the scene through a thin lens, causing parallax effects from oblique vision. This effect directly impacts the datacube design with some indesirable spatial gaps while browsing the spectral layers.

Sujet :
The main goal of the internship is to stitch images together into a big datacube with a negligible geometric reconstruction error along the layers regarding the potato leaf scale.
Detailed information in the associated file.

Profil du candidat :
The applicant should conduct Master or engineering studies in relevant fields (artificial intelligence, datascience, applied mathematics). Some knowledge on optics and hyperspectral imagery may be useful.

Formation et compétences requises :
The applicant should conduct Master or engineering studies in relevant fields (artificial intelligence, datascience, applied mathematics). Some knowledge on optics and hyperspectral imagery may be useful.
Good programming skills in Python, Matlab and Shell programming are expected.
Good oral and written communication skills are needed.

Adresse d’emploi :
LISIC Lab,
La Malassise, Chemin de la Malassise,
62219 Longuenesse

Document attaché : 202201131745_Demande_Stage_Recherche_M2.pdf

Jan
29
Sat
2022
Conception et prototypage d’une interface WEB pour une plateforme d’analyse de données temporelles
Jan 29 – Jan 30 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ICube – Université de Strasbourg
Durée : 4 à 6 mois
Contact : a.capobianco@unistra.fr
Date limite de publication : 2022-01-29

Contexte :
L’utilisation de techniques de Machine Learning/Data Mining pour l’analyse de séries temporelles est en plein essor, plus particulièrement en Sciences de l’Environnement (Hydrologie, télédétection).
Dans le cadre de ses travaux, l’équipe SDC-ICube développe la plateforme d’analyse de séries temporelles FODOMUST (https://sdc.icube.unistra.fr/en/index.php?title=FODOMUST).
Cette plateforme dispose d’une interface déportée MultICube suivant un modèle MVC.

FODOMUST propose des outils d’analyse d’image et de visualisation des résultats de classifications à l’expert. Ces visualisations doivent permettre de faciliter le travail d’analyse des experts géographe et faciliter les tâches de classification et de décision sur la base des propositions du logiciel. La visualisation des informations fournie, pour être utile, doit être suffisamment précise et complète pour que l’expert puisse réellement faire son choix. Cependant, la masse des données à traiter et la complexité des processus d’analyse entraine une importante densité informationnelle et donc un risque de surcharge cognitive qui représente un frein à l’adoption des outils développés.

Sujet :
Pour mieux répondre aux besoins des experts, nous souhaitons migrer l’application existante vers une application web. Afin de faciliter l’intégration de ces nouveaux outils dans des processus d’analyse de données complexes tout en limitant le coût cognitif induit par l’usage de la plateforme, nous souhaitons nous inscrire dans une démarche de co-conception impliquant les utilisateurs finaux dans le processus de création et de développement de ce nouvel outil.

L’objectif de ce travail sera donc triple. Il s’agira :
1. de faire une étude des besoins et attentes des utilisateurs : pour cela, le•la stagiaire organisera des ateliers de co-conception avec les utilisateurs finaux. Différentes méthodes pourront être considérées. Le•la stagiaire sera secondé•e par Margaux Holveck (Ingénieur de Recherche – Géomatique).
2. de concevoir et valider avec les utilisateurs une proposition d’interface.
3. de fournir et d’évaluer un prototype « preuve de concept » permettant de mieux visualiser le résultat potentiel. Le•la stagiaire sera secondé par un•e étudiant•e stagiaire en développement web pour la réalisation de ce prototype fonctionnel.

Profil du candidat :
Le•la candidat•e devra poursuivre une formation en Informatique, Sciences humaines et sociales ou Psychologie Cognitive avec de bonne connaissance en Ergonomie ou Interaction Homme-Machine.

Formation et compétences requises :
Des connaissances en UI/UX et conception d’interface sont requises. Des connaissances en développement front-end (HTML/CSS et Javascript) seront un plus.

Adresse d’emploi :
ICube – Université de Strasbourg
300 bld Sébastien Brant
67400 Illkirch

Document attaché : 202111250634_SujetM2-2021-Ergonomie-Interface.pdf

Des images de synthèse pour entraîner les réseaux de neurones
Jan 29 – Jan 30 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire AMAP, Montpellier
Durée : 4 à 6 mois
Contact : marc.chaumont@lirmm.fr
Date limite de publication : 2022-01-29

Contexte :
Identifier et dénombrer des arbres de manière automatique à partir d’images RGB satellitaires/drones, et plus encore en zones de forêts naturelles, est un vrai challenge. Les variétés, l’âge de la plantation, l’état phytosanitaire, la densité impliquent en effet une grande variabilité dans le contenu des images ce qui rend la détection automatique difficile, même par deep learning.

Sujet :
Objet d’étude :
a) Synthèse de scènes 3D contenant des arbres (l’architecture est réaliste) ressemblant à une photo aérienne prise par un drone (i.e. génération d’un DOE – Design of Experiences).
b) Apprentissage d’un réseau de neurones de type Faster-RCNN [Ren et al. 2021 – Faster-RCNN] ou Yolo [YOLOV5], [Ge et al. 2021 – YOLOX] dédié à la détection d’arbres à partir des images de synthèse.
c) Transfert de l’apprentissage pour que le réseau de neurones soit capable de réaliser des détections dans des images réelles. Il y a de nombreuses solutions pour cette « adaptation de domaine ».

Problématique :
Dans le cadre de ce stage, nous souhaitons vérifier que l’utilisation d’images de synthèse peut, in fine, améliorer les performances d’un algorithme de détection dans des images réelles.

Descriptif complet ici :
http://www.lirmm.fr/~chaumont/download/Stage_M1_M2_2022_DeepLearning-Arbre-AMAP-LIRMM.pdf

Profil du candidat :
Elève Master 2 ou Master 1 ou Ingénieur : traitement d’images et signal/télédétection/bioinformatique

Formation et compétences requises :
– Maitrise d’un langage de programmation de bas niveau (ex: C++),
– Maîtrise d’un langage de programmation de script (ex. Python),
– Expérience en apprentissage profond (TensorFlow ou Pytorch),
– Connaissances en traitement d’images,
– Aptitude au travail en interdisciplinarité
– Prise d’initiative et bon relationnel,
– Anglais scientifique courant

Adresse d’emploi :
UMR Amap – CIRAD Montpellier
Parc Scientifique Agropolis,
2196 Bd de la Lironde,
34980 Montferrier-sur-Lez
http://amap.cirad.fr/fr/index.php

Document attaché : 202111250903_Stage_M1_M2_2022_DeepLearning-Arbre-AMAP-LIRMM.pdf

Développement d’un simulateur pour la réalisation de mesures de la transition métal-isolant de films
Jan 29 – Jan 30 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Institut FEMTO-ST
Durée : 5 à 6 mois
Contact : zeina.almasry@femto-st.fr
Date limite de publication : 2022-01-29

Contexte :
Le matériau VO2 présente une transition métal-isolant réversible proche de la température ambiante (60-70◦C). Une telle transition se manifeste par des variations significatives (4 à 5 ordres de grandeur) de ses propriétés électroniques notamment. Afin d’optimiser cette transition, une collecte de données (mesures de résistivité électrique en fonction de la température) est nécessaire. La collecte de données est parfois une tâche coûteuse en termes de temps et de ressources, et en particulier dans la préparation des expérimentations. Pour pallier à ce problème, ce projet vise à développer un simulateur basé sur des modèles probabilistes pour identifier les paramètres pertinents à la réalisation de ces expérimentations.

Sujet :
Développement attendus :
— Analyse des besoins et écriture d’un cahier des charges ;
— Appropriation des méthodes probabilistes pour les mettre en oeuvre dans la
réalisation du simulateur ;
— Faire des expérimentations sur la transition du film VO2 ;
— Identification des paramètres clés ;
— Réalisation et validation du simulateur.

Profil du candidat :
Master 2 en probabilités et statistique ou dernière année en école d’ingénieurs.

Formation et compétences requises :
Master 2 en probabilités et statistique ou dernière année en école d’ingénieurs.

Adresse d’emploi :
24 Rue Alain Savary, 25000 Besançon

Document attaché : 202111251048_OffredeStage.pdf

Jan
31
Mon
2022
Étude du potentiel de la super-résolution de données de télédétection pour la cartographie
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : MACLEAN/– — –

Laboratoire/Entreprise : TETIS
Durée : 6 mois
Contact : dino.ienco@inrae.fr
Date limite de publication : 2022-01-31

Contexte :
A l’heure actuelle, une pléthore de missions satellitaires recueille en permanence des données de télédétection décrivant la surface de la Terre selon diverses modalités (par exemple, SAR ou optique) et à différentes résolutions spatiales et temporelles. Par conséquent, une même zone d’étude peut être couverte par des informations hétérogènes et multimodales. Ces informations sont d’une importance capitale pour surveiller les phénomènes spatio-temporels et produire des cartes d’occupation des sols afin de faciliter une agriculture durable, le suivi de l’artificialisation et les décisions de politique publique. Ces dernières années, la communauté des chercheurs en télédétection a porté son attention sur l’utilisation d’approches fondées sur l’apprentissage profond (ou deep-learning). Ces approches permettent d’intégrer des acquisitions de capteurs complémentaires disponibles sur la même zone d’étude [1], dans le but d’exploiter l’interaction entre des sources ayant différents contenus spectraux et spatiaux. L’objectif est d’améliorer la cartographie d’occupation du sol en tirant parti de toutes les sources d’imagerie disponibles.
Une tâche particulièrement intéressante pour la communauté de télédétection est l’augmentation de la résolution spatiale des images satellitaires à travers un processus dit de super-résolution [2]. Ce processus permet d’améliorer la résolution spatiale d’une image pour faciliter des analyses expertes ainsi que pour la classification supervisée ou la segmentation sémantique d’imagerie satellitaire [3]. Aujourd’hui, pour accomplir cette tâche, les méthodes de deep-learning de type Réseau Génératif Adverse (Generative Adversarial Networks, GAN) [2] ou d’autres approches basées sur des erreurs de reconstruction [4] sont de plus en plus utilisées du fait que leurs performances s’avèrent très intéressantes pour améliorer la résolution spatiale initiale des images satellitaires.

[1] D. Hong, L. Gao, N. Yokoya, J. Yao, J. Chanussot, Q. Du, B. Zhang: More Diverse Means Better: Multimodal Deep Learning Meets Remote-Sensing Imagery Classification. IEEE Trans. Geosci. Remote. Sens. 59(5): 4340-4354 (2021).

[2] D. Guo, Y. Xia, L. Xu, W. Li, X. Luo: Remote sensing image super-resolution using cascade generative adversarial nets. Neurocomputing 443: 117-130 (2021)

[3] X. Chen, Z. Li, J. Jiang, Z. Han, S. Deng, Z. Li, T. Fang, H. Huo, Q. Li, M. Liu: Adaptive Effective Receptive Field Convolution for Semantic Segmentation of VHR Remote Sensing Images. IEEE Trans. Geosci. Remote. Sens. 59(4): 3532-3546 (2021)

[4] B. Huang, B. He, L. Wu, Z. Guo: Deep Residual Dual-Attention Network for Super-Resolution Reconstruction of Remote Sensing Images. Remote. Sens. 13(14): 2784 (2021)

Sujet :
L’objectif du stage est de caractériser le potentiel de la super-résolution des images optiques Sentinel-2 (imagerie satellitaires multispectrales – 13 bandes spectrales couvrent du visible au proche/moyen visible – à 10m de résolution spatiale) à partir d’images optiques très haute résolution Spot-6/7 (imagerie satellitaires multispectrales – 1 bande panchromatique plus 4 bandes spectrales Rouge, Bleu, Vert et Proche Infrarouge – à 1,5m panchromatic et 6m multispectrales) pour la classification d’images au pixel.

En particulier, la mission de la personne recrutée seront:
Une étude bibliographique des méthodes à état de l’art en apprentissage profond, dans le domaine de la télédétection, pour la tâche de super-résolution spatiale;
La construction d’un jeu de données d’images Sentinel-2 et Spot-6/7;
Le choix de deux méthodes de super-résolution complémentaires, leur implémentation et leur application sur le jeu de données précédemment constitué;
L’évaluation des résultats des méthodes implémentées et leur comparaison en utilisant des métriques d’estimation de la qualité des images reconstruites;
L’évaluation des résultats obtenus avec les méthodes de super-résolution implémentées dans le contexte d’une application de classification supervisée d’images satellitaires sur une tâche de cartographie d’occupation du sol et/ou classification de la surface artificialisée.

Profil du candidat :
– Master en informatique ou un autre domaine des mathématiques appliquées, ou Diplôme d’Ingénieur.
– Connaissance requise du langage python, avec une première expérience de TensorFlow, Keras ou Pytorch.
– Compétences en traitement des signaux ou des images.
– Connaissance et expérience dans l’analyse de données de télédétection est un plus.
– Bon niveau en anglais (lecture).

Formation et compétences requises :
– Master en informatique ou un autre domaine des mathématiques appliquées, ou Diplôme d’Ingénieur.
– Connaissance requise du langage python, avec une première expérience de TensorFlow, Keras ou Pytorch.
– Compétences en traitement des signaux ou des images.
– Connaissance et expérience dans l’analyse de données de télédétection est un plus.
– Bon niveau en anglais (lecture).

Adresse d’emploi :
UMR TETIS,
500, Rue Jean François Breton
34090 Montpellier

Document attaché : 202111270922_Sujet_Stage.pdf

Segmentation semi-supervisée par apprentissage profond de données IRM pédiatriques
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IMT Atlantique
Durée : 6 mois
Contact : francois.rousseau@imt-atlantique.fr
Date limite de publication : 2022-01-31

Contexte :
Lab

La recherche à l’IMT Atlantique concerne près de 800 personnes, dont 290 enseignants et chercheurs et 300 doctorants, et porte sur les technologies numériques, l’énergie et l’environnement. Il couvre toutes les disciplines (des sciences physiques aux sciences humaines et sociales en passant par celles de l’information et du savoir) et couvre tous les domaines des sciences et des technologies de l’information et de la communication.

Ce stage se déroulera à l’IMT Atlantique, laboratoire LaTIM (INSERM U1101), sur le campus de Brest.

Date de début : Mars 2022
Durée : 6 mois

Sujet :
Description

La paralysie périnatale du plexus brachial est une paralysie flasque du bras à la naissance, survenant le plus souvent suite à un accouchement difficile. Dans un tiers des cas, les bébés auront une récupération incomplète ou absente et présenteront des conséquences à vie. Les enfants avec paralysie du plexus brachial présentent une atteinte musculaire très précoce, dès quelques mois d’âge. Un défi est de mieux comprendre cette atteinte afin de guider les thérapies favorisant la récupération. L’objectif principal de l’étude est d’évaluer l’efficacité des injections de toxine botulique dans les muscles rotateurs internes de l’épaule dans la prévention de l’aggravation de la déformation de l’articulation gléno-humérale chez le nourrisson avec paralysie du plexus brachial.

Ce projet s’intéresse à l’analyse d’images pour la compréhension de cette pathologie chez le nourrisson. En collaboration avec le CHRU de Brest et la fondation Ildys, ce stage vise à quantifier la morphométrie des muscles des épaules au travers de l’analyse des données IRM anatomiques acquises chez 20 sujets.

La cohorte acquise dans le cadre du projet POPBtox comporte environ 20 enfants avec paralysie du plexus brachial (20 épaules saines, 20 épaules pathologiques). L’acquisition des données IRM des deux épaules pour chacun des enfants est réalisée à 12 et 18 mois. Deux types de contrastes sont acquis : T1w & DIXON (6 échos). Les défis en analyse d’images concernent principalement la variabilité de forme et d’apparence (cartilages, acquisition multicentrique, injection de toxine). Ce stage se focalise sur la mise en place d’une méthode de segmentation semi-supervisée pour l’étude des données de cette cohorte.

L’objectif du stage est contribuer à l’analyse de données IRM anatomiques pour la compréhension de la paralysie du plexus brachial chez le nourrisson:
– Segmentation semi-supervisée par apprentissage profond des muscles de l’épaule de nourrissons sur des données multicontrastes longitudinales.
– Utilisation de bases externes pédiatriques pour la phase de pré-apprentissage.
– Etude morphométrique des muscles de l’épaule pour une meilleure caractérisation de la pathologie.

Profil du candidat :
Profil
– Maîtrise en traitement d’images et/ou mathématiques appliquées
– Maitrise de Python pour le calcul scientifique (numpy) et l’apprentissage profond (PyTorch)
– Compétences requises en apprentissage et analyse d’images

Formation et compétences requises :
– Compétences en analyse d’images, programmation et apprentissage.

Adresse d’emploi :
IMT Atlantique, Brest

Document attaché : 202111221239_2022-Stage-AI4Child-Popbtox.pdf

Stage Deep Learning sur Graphes (GNN, Transformers)
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIFAT Tours France
Durée : 5 mois
Contact : jyramel@univ-tours.fr
Date limite de publication : 2022-01-31

Contexte :
Ce stage est proposé dans le cadre d’un projet collaboratif mené par des membres du LIFAT (à Tours) et du LITIS (à Rouen) et visant à mieux coupler les techniques d’apprentissage profond et de reconnaissance des formes structurelles (traitement de données de type graphes, geometric deep learningn GNN, Graph Transormer).

Sujet :
Missions du stage :
Intégration d’informations structurelles dans le mécanisme d’attention des Graph Transformers ou GNN.
Dans des travaux précédents [2, 3], une première architecture GNN travaillant directement dans l’espace des graphes a été proposée. Les opérateurs de convolution et de pooling sont définis dans le domaine des graphes tout en permettant l’utilisation d’un algorithme de rétro-propagation pendant l’étape d’apprentissage. En particulier, la convolution est remplacée par un solveur d’appariement de graphes [5] appliqué sur un sous-graphe enraciné autour de chaque nœud du graphe. L’idée est d’étudier l’utilisation d’un solveur de mise en correspondance de graphes dans l’objectif d’un mécanisme d’attention structurelle. L’objectif de ce travail serait ainsi de :
1. Etudier des méthodes alternatives de mise en place du mécanisme d’attention pour prendre mieux en compte les informations structurelles.
2. Proposer un modèle de transformer de graphes basé sur un de ces mécanismes d’attention structurel.
3. Programmer ces modèles (en Python), et les comparer à l’état de l’art sur des jeux de données standards pour différentes applications.

Code suggéré : Les lecteurs intéressés pourraient considérer le code suivant comme une base de référence: https://github.com/graphdeeplearning/graphtransformer

Profil du candidat :
• Licence/master en informatique, mathématiques appliquées, science des données, ou similaire.
• Compétences (avec expériences si possible) : réseaux neuronaux, apprentissage profond, programmation Python, analyse numérique.

Le stage se déroulera entre fevrier et septembre 2022.
Possibilité de poursuite en thèse en septembre 2022

Formation et compétences requises :
• Licence/master en informatique, mathématiques appliquées, science des données, ou similaire.
• Compétences (avec expériences si possible) : réseaux neuronaux, apprentissage profond, programmation Python, analyse numérique.

Adresse d’emploi :
Le stage aura lieu au Laboratoire d’Informatique Fondamentale et Appliquees de Tours (LIFAT, http://lifat.univ-tours.fr )

Veuillez soumettre votre CV en format pdf à: ramel@univ-tours.fr and romain.raveaux@univ-tours.fr.

Document attaché : 202111181415_LIFAT_Internship_ANR_CodeGNNen.pdf

Feb
1
Tue
2022
Développement d’une méthode d’apprentissage profond pour la cartographie de l’occupation du sol
Feb 1 – Feb 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CIRAD – UMR TETIS
Durée : 6 mois
Contact : raffaele.gaetano@cirad.fr
Date limite de publication : 2022-02-01

Contexte :
Le développement de la chaîne de traitement iota 2 (Infrastructure pour l’Occupation des sols par
Traitement Automatique Incorporant les Orfeo Toolbox Applications 1 [1] a été initié par l’UMR CESBIO
(Centre d’Etudes Spatiales de la BIOsphère, Toulouse) dans l’objectif principal d’assurer la production
opérationnelle de cartes d’occupation des sols à l’échelle nationale (France Métropolitaine) à partir de
séries temporelles d’images à haute résolution spatiale (telles que les images issues des mission Sentinel
de l’ESA), comme établi par le Centre d’Expertise Scientifique « Occupation des SOls » (CES OSO)
du Pôle Surfaces Continentales THEIA 2 . Depuis, face aux besoins des utilisateurs, qui sont très variés,
et aux contributeurs potentiels pouvant fournir des améliorations méthodologiques, iota 2 évolue vers une
plateforme puissante et flexible pour faciliter la mise en place de chaînes de traitement en télédétection
pour l’occupation du sol à grande échelle.
La composante CIRAD de l’UMR TETIS participe depuis plusieurs années aux développements de la
chaîne iota 2 , et a mis à disposition de ses utilisateurs un workflow de classification à objet (approche
OBIA) pour la production de cartes d’occupation du sol à Très Haute Résolution Spatiale (THRS), inspiré
de la chaîne Moringa 3 [2, 3], et adaptée aux contextes des paysages et systèmes agricoles tropicaux
(couverture nuageuse importante, petit parcellaire, fragmentation des paysages et hétérogénéité des
pratiques agricoles, faible disponibilité de données de référence).

Sujet :
Dans le cadres des activités du projet TOSCA PARCELLE soutenu par le Centre National d’Etudes
Spatiales (CNES), nos objectifs actuels évoluent vers l’amélioration du workflow Moringa par l’intégration
dans iota 2 de nouvelles méthodes basées sur l’apprentissage profond récemment mises au point dans
l’unité, couvrant des étapes allant des prétraitement des séries temporelles (super-résolution, interpolation
des observations nuageuses) à l’extraction de descripteurs et la classification à objet. Pour ce stage, les
activités se concentreront en particulier sur le développement dans iota 2 d’une technique
classification de séries temporelles multi-capteurs (optiques/radar) issue de l’apprentissage
profond (deep learning ) (inspirée par la méthode TWINNS [4]), pouvant être également utilisée pour
l’extraction de descripteurs pour la stratégie de classification à objet .
Les étapes principales envisagées pour la réalisation de ce stage sont :
• revue bibliographique sur les méthodes d’apprentissage profond développées au sein de l’unité
en lien avec TWINNS et prise en main de l’implémentation existante;
• production de jeux de données à partir de séries temporelles d’images de télédétection (imagerie
Sentinel-1 et -2) et des bases de données de référence disponibles, et réalisation de tests à partir
des implémentations existantes;
• prise en main de la chaîne iota 2 et des stratégies de développement collaboratifs;
• adaptation des codes sources et leurs intégration dans la chaîne iota 2 ;
• test des méthodes après intégration, évaluation des performances et comparaisons avec la
stratégie existantes (qualitatives, complexité des calculs);
• rédaction d’un rapport sur les activités menées et préparation de la soutenance.

Profil du candidat :
• Étudiant M2 ou 3ème ingénieur en Informatique ou Télédétection / Géomatique;
• bonnes compétences en programmation (Python);
• connaissance des méthodes d’apprentissage automatique (machine learning, deep learning )
et des modules Python concernés (scikit-learn, TensorFlow/Keras, PyTorch …);
• une compétence en manipulation de données géo-spatiales (raster/vecteur, GDAL/OGR,
Orfeo Toolbox, …) est souhaitée;
• goût pour la recherche, l’innovation et le travail collaboratif intra- et inter-équipe.

Formation et compétences requises :
• Étudiant M2 ou 3ème ingénieur en Informatique ou Télédétection / Géomatique;
• bonnes compétences en programmation (Python);
• connaissance des méthodes d’apprentissage automatique (machine learning, deep learning )
et des modules Python concernés (scikit-learn, TensorFlow/Keras, PyTorch …);
• une compétence en manipulation de données géo-spatiales (raster/vecteur, GDAL/OGR,
Orfeo Toolbox, …) est souhaitée;
• goût pour la recherche, l’innovation et le travail collaboratif intra- et inter-équipe.

Adresse d’emploi :
Maison de la Télédétection,
500 Rue J.-F. Breton, 34090 Montpellier, France.

Document attaché : 202111240927_stage_PARCELLE_2022.pdf

Etude de l’espace des caractéristiques dans les auto-encodeurs variationnels (Imagerie médicale))
Feb 1 – Feb 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LITIS (Rouen)
Durée : 6 mois
Contact : jerome.lapuyade-lahorgue@univ-rouen.fr
Date limite de publication : 2022-02-01

Contexte :
Un auto-encodeur variationnel est un type de réseau de neurones utilisé généralement pour la reconstruction de données et ainsi extraire les caractéristiques principales des données. Celui-ci prend en entrée un vecteur ou matrice de données x, l’encode sous forme d’un vecteur z de caractéristiques et décode la sortie à partir de z. Cette sortie doit être la plus fidèle possible à l’entrée. Les caractéristiques obtenues sont des valeurs évoluant dans un espace de dimension plus faible que celle des données brutes à analyser. Ainsi, un auto-encodeur peut être considéré comme un algorithme de réduction de dimension.

Sujet :
L’objectif principal du projet est de proposer des distributions a priori pour les caractéristiques alternatives à la distribution normale habituellement utilisée. Ces lois statistiques seront des distributions sur variétés différentielles. Les variétés différentielles pourront être représentées, via leur discrétisation, comme des graphes dans lesquels les opérateurs classiques de gradient et laplacien, ainsi que la notion de géodésique peuvent être étendus. Les auto-encodeurs ainsi implémentés pourront également être utilisés dans les réseaux multitâches actuellement d´enveloppés dans notre équipe et appliqués pour la classification de cancers et la prédiction de l’évolution d’un cancer après un traitement à partir des images TDM/TEP ou IRM.

Profil du candidat :
L’étudiant(e) devra être à l’aise en programmation avec le langage Python. Il/elle devra apprécier la démarche scientifique, le travail en équipe. Une bonne culture dans le domaine de l’apprentissage machine et/ou de l’imagerie sera appréciée.

Formation et compétences requises :
Étudiant(e) en dernière année de Master en Informatique, Science des Données, Traitement et Analyse d’Images.

Compétences en analyse statistique, apprentissage machine, programmation python.

Adresse d’emploi :
LITIS, Université de Rouen, 76800 Saint-Étienne-du-Rouvray

Nouvelles m éthodes de fusion spectro-spatio-temporelle d’images Sentinel-2 et Sentinel-3
Feb 1 – Feb 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LISIC
Durée : 6 mois
Contact : matthieu.puigt@univ-littoral.fr
Date limite de publication : 2022-02-01

Contexte :
Ce stage s’inscrit dans le cadre des activités conjointes des laboratoires LISIC (EA 4491, Calais) – plus particulièrement les activités de l’équipe SPeciFI dans l’antenne de Saint-Omer du LISIC – et LOG (UMR 8187, Wimereux) – plus particulièrement les activités de l’équipe TELHYD du LOG – autour de l’imagerie satellitaire pour l’observation marine côtière, dans le cadre de la Structure Fédérative de Recherche “Campus de la Mer” et du projet TOSCA OSYNICO financé par le CNES. En particulier, dans le cadre de ces projets initiés en 2020, le LISIC développe des méthodes à la frontière entre traitement du signal et des images et intelligence artificielle appliquées aux données satellitaires (images multi- ou hyper-spectrales). Le LOG s’intéresse à l’analyse théorique et l’observation de processus physiques afin de comprendre et prévoir leurs impacts sur l’environnement marin, d’un point de vue de la biologie ou de la biogéochimie.

Sujet :
L’observation satellitaire de notre planète connaît depuis plusieurs décennies d’importantes avancées instrumentales, avec des développements conséquents que ce soit en terme de résolution spatiale (par exemple en télédétection de la couleur de l’eau à haute résolution spatiale 10-60 m) et en terme de résolution spectrale (imagerie hyper-spectrale). Une image Multi-Spectrale (MS) ou Hyper-Spectrale (HS) consiste en un cube de données dont deux axes décrivent les variations spatiales et un axe décrit les variations spectrales. La principale différence entre une image HS et une image MS réside dans le nombre très réduit de bandes spectrales observées dans cette dernière. L’ajout de bandes spectrales dans une image HS se fait au détriment de sa résolution spatiale, qui est plus faible. Ainsi, aujourd’hui, notre planète est observée à la fois par des imageurs MS ayant une très bonne résolution spatiale mais une faible résolution spectrale et par des imageurs HS ayant une très bonne résolution spectrale mais une faible résolution spatiale (et un ensemble d’imageurs aux propriétés intermédiaires).

La fusion d’images satellitaires MS et HS permet d’améliorer les résolutions spectrale, spatiale voire temporelle de ces images d’origine. De nouvelles techniques de fusion d’images émergent constamment, faisant passer de pan-sharpening (fusion d’images panchromatiques et multi-spectrales) à la fusion spectro-spatio-temporelle de données provenant de différents capteurs et plates-formes. Cependant, l’application de la fusion d’images satellitaires dans le domaine de l’observation des environnements marins et des zones côtières reste encore limitée. Le nombre et la complexité des différentes techniques disponibles aujourd’hui peuvent être accablants, empêchant ainsi les utilisateurs d’exploiter pleinement le potentiel des produits de fusion spectro-spatio-temporelle des images tels que la fusion des images provenant de Sentinel-3 et Sentinel-2. Ainsi, plusieurs techniques de fusion de données (aussi connues sous le nom de multi-sharpening) ont été proposées ces dernières années pour créer de nouvelles images combinant la bonne résolution spatiale des image MS avec la bonne résolution spectrale des images HS [1].

Dans le cadre de ce stage, nous nous intéressons à l’observation marine côtière via les données des satellites Sentinel-2 et Sentinel-3. Les images obtenues par ces deux satellites permettent d’étudier la couleur de l’océan, c’est-à-dire la répartition spatiale et temporelle de la concentration en phytoplancton, en matière en suspension et en matière organique. Les données Sentinel-2 consistent en des cubes avec 13 bandes spectrales pour une résolution spatiale variant de 10 à 60~m en fonction des bandes, acquises tous les 5 jours environ. Les données Sentinel-3 sont des cubes avec 21 bandes spectrales pour une résolution spatiale de 300~m, acquises tous les jours. En observation marine, pour comprendre les phénomènes complexes qui se passent en milieu côtier, il est nécessaire que les données à disposition combinent :
– une bonne résolution spectrale pour mieux analyser le milieu biogéochimique (chlorophylle, particules en suspension, etc) ;
– une bonne résolution spatiale pour mieux appréhender les phénomènes de répartition de ce milieu qui sont beaucoup plus complexes en milieu côtier qu’en pleine mer ;
– une courte période d’acquisition de ces images pour repérer des phénomènes très concentrés dans le temps (blooms de phytoplanctons par exemple).
Aucune donnée satellitaire ne permet aujourd’hui de respecter ces trois contraintes.

Dans le cadre de ce stage, nous proposons de traiter conjointement les séries temporelles de données Sentinel-2 et Sentinel-3, afin de générer une nouvelle série temporelle de cubes de données obtenues par multi-sharpening, permettant d’obtenir des images avec la résolution temporelle de Sentinel-3 (une image par jour), le nombre de bandes spectrales de Sentinel-3 et la résolution spatiale de Sentinel-2. Cela permettra de mieux caractériser la couleur des eaux côtières. Les méthodes envisagées feront appel à un formalise de type apprentissage profond et étendront les derniers travaux de l’équipe à ce sujet [2-4]. Les approches seront validées par des comparaisons avec des données in situ et sur des scénarios spécifiques, co-construits avec les partenaires du LOG.

Le stage pourra être poursuivi par la préparation d’une thèse dans le domaine de la factorisation matricielle et/ou de l’apprentissage profond (sous réserve d’obtention d’un financement : ce point sera défini durant le stage).

Encadrement :
Le stage aura lieu dans la nouvelle antenne de Longuenesse du LISIC, dédiée actuellement à l’imagerie hyperspectrale. Cette antenne, créée récemment, compte à ce jour 5 chercheurs permanents, 1 chercheur post-doctorant et 4 doctorants. Le stagaire sera encadré par Ahed Alboody, Mattthieu Puigt et Gilles Roussel qui apporteront leur expertise respective en traitement des images MS/HS et en machine learning (deep learning, factorisation matricielle, optimisation) pour l’imagerie satellitaire.

De nombreux échanges auront lieu avec le LOG, situé à Wimereux (et plus particulièrement avec Cédric Jamet et Vincent Vantrepotte). Le LOG apportera ses compétences sur la couleur de l’océan, notamment sur l’analyse des images fusionnées et leur validation. Le LOG fournira les mesures in-situ de validation et des images dans des zones côtières d’intérêt (Manche orientale, Guyane, Cambodge, Vietnam).

Ces deux laboratoires sont situés au coe{}ur du Parc naturel régional des caps et marais d’Opale, à proximité directe de Lille, de l’Angleterre, de la Belgique et de l’Europe du Nord (Amsterdam à 4h de route de Longuenesse).

Références :
[1] Laetitia Loncan, Luis B De Almeida, Jos ́e M Bioucas-Dias, Xavier Briottet, Jocelyn Chanussot, NicolasDobigeon, Sophie Fabre, Wenzhi Liao, Giorgio A Licciardi, Miguel Simoes, et al. Hyperspectral pansharpening :A review. IEEE Geoscience and remote sensing magazine, 3(3) :27–46, 2015.
[2] Ahed Alboody, Matthieu Puigt, Gilles Roussel, Vincent Vantrepotte, C ́edric Jamet, and Trung Kien Tran. Experimental comparison of multi-sharpening methods applied to Sentinel-2 MSI and Sentinel-3 OLCI images. In Proc. IEEE WHISPERS’21, 2021.
[3] Cheick Tidiani Cissé, Ahed Alboody, Matthieu Puigt, Gilles Roussel, Vincent Vantrepotte, Cédric Jamet, and Trung Kien Tran. A new deep learning method for multispectral image time series completion using hyperspectral data. submitted.
[4] Ahed Alboody, Matthieu Puigt, Gilles Roussel, Vincent Vantrepotte, Cédric Jamet, and Trung Kien Tran. Multi-scale deep learning model for spatio-spectral fusion of hyperspectral and multi-spectral remote sensing images. submitted.

Profil du candidat :
Issu(e) d’une filière scientifique en sciences de données (traitement du signal et des images, informatique avec une dominante en intelligence artificielle/apprentissage/machine learning, mathématiques appliquées), vous êtes curieux(se) et très à l’aise en programmation (Matlab, Python, Tensorflow). Vous lisez et parlez avec aisance l’anglais courant. Bien que non-obligatoire, une première expérience en factorisation de données (matrices ou tenseurs, séparation de sources, apprentissage de dictionnaire) ou en deep learning sera appréciée.

Pour candidater, merci d’envoyer un courriel à {ahed.alboody, matthieu.puigt, gilles.roussel} [at] univ-littoral.fr en y annexant les documents pouvant supporter votre candidature :*
– votre CV,
– une lettre de motivation,
– vos relevés de notes de Licence 3, Master 1, Master 2 (si ces dernières sont disponibles) ou d’Ecole d’Ingénieurs (première à troisième année),
– deux lettres de recommandation ou les noms et moyens de contact de deux référents académiques.

Formation et compétences requises :
Issu(e) d’une filière scientifique en sciences de données (traitement du signal et des images, informatique avec une dominante en intelligence artificielle/apprentissage/machine learning, mathématiques appliquées), vous êtes curieux(se) et très à l’aise en programmation (Matlab, Python, Tensorflow). Vous lisez et parlez avec aisance l’anglais courant. Bien que non-obligatoire, une première expérience en factorisation de données (matrices ou tenseurs, séparation de sources, apprentissage de dictionnaire) ou en deep learning sera appréciée.

Adresse d’emploi :
LISIC, EILCO,
Chemin de la Malassise,
62219 Longuenesse

Document attaché : 202111211747_Stage_OSYNICO_2022.pdf