Présentation Générale

 



           
Huitième édition du Symposium MaDICS

Ce rendez-vous annuel rassemble la communauté MaDICS afin de mettre en lumière les avancées récentes en sciences des données, à travers un programme scientifique riche comprenant des conférences invitées (keynotes), des ateliers thématiques, des tables rondes et des sessions de posters.
Ces temps forts favorisent des échanges scientifiques à la fois stimulants et conviviaux.

Une Session Poster sera spécialement consacrée aux jeunes chercheuses et jeunes chercheurs souhaitant présenter leurs travaux en analyse et gestion de données et dans les domaines interdisciplinaires autour de la Science des Données. Cette session sera également l’occasion d’échanger avec des collègues académiques et des acteurs industriels sur les thématiques de recherche présentées.

Dates importantes :

  • Soumission de posters : au plus tard le 23 mars 2026
  • Retour : 9 avril 2026
  • Symposium : les 2 et 3 juin 2026 à Avignon

Nous vous invitons d’ores et déjà à réserver ces dates dans votre agenda

Pour en savoir plus…

MaDICS est un Groupement de Recherche (GDR) du CNRS créé en 2015. Il propose un écosystème pour promouvoir et animer des activités de recherche interdisciplinaires en Sciences des Données. Il est un forum d’échanges et d’accompagnement pour les acteurs scientifiques et non-scientifiques (industriels, médiatiques, culturels,…) confrontés aux problèmes du Big Data et des Sciences des données.
Pour en savoir plus…


Les activités de MaDICS sont structurées à travers des Actions et Ateliers. Les Actions rassemblent les acteurs d’une thématique précise pendant une durée limitée (entre deux et quatre ans). La création d’une Action est précédée par un ou plusieurs Ateliers qui permettent de consolider les thématiques et les objectifs de l’action à venir.


Le site de MaDICS propose plusieurs outils de support et de communication ouverts à la communauté concernée par les Sciences des Données:

  • Manifestations MaDICS : Le GDR MaDICS labellise des Manifestations comme des conférences, workshops ou écoles d’été. Toute demande de labellisation est évaluée par le Comité de Direction du GDR. Une labellisation rend possible un soutien financier pour les jeunes chercheuses et chercheurs. Une labellisation peut aussi être accompagnée d’une demande de soutien financier pour des missions d’intervenants ou de participants à la manifestation.
    Pour en savoir plus…
  • Réseaux MaDICS : pour mieux cibler les activités d’animation de la recherche liées à la formation et à l’innovation, le GDR MaDICS a mis en place un Réseau Formation destiné à divers publics (jeunes chercheurs, formation continue,…), un Réseau Innovation pour faciliter et intensifier la diffusion des recherches en Big Data, Sciences des Données aux acteurs industriels et un Club de Partenaires qui soutiennent et participent aux activités du GDR.
    Pour en savoir plus…
  • Espace des Doctorants : Les doctorants et les jeunes chercheurs représentent un moteur essentiel de la recherche et le GDR propose des aides à la mobilité et pour la participation à des manifestations MaDICS.
    Pour en savoir plus…
  • Outils de communication : Le site MaDICS permet de diffuser des informations diverses (évènements, offres d’emplois, proposition de thèses, …) liées aux thématiques de recherche du GDR. Ces informations sont envoyées à tous les abonnés de la liste de diffusion MaDICS et publiés dans un Calendrier public (évènements) et une page d’offres d’emplois.

Adhésion au GDR MaDICS : L’adhésion au GDR MaDICS est gratuite pour les membres des laboratoires ou des établissements de recherche publics. Les autres personnes peuvent adhérer au nom de l’entreprise ou à titre individuel en payant une cotisation annuelle.
Pour en savoir plus…


Manifestations à venir

Journées Ecoles Conférences et Séminaires

Actions, Ateliers et Groupes de Travail :

CODA DAE DatAstro DSChem EXMIA GINO GRASP RECAST SaD-2HN SIMDAC SimpleText TIDS  


Jan
30
Sat
2021
Simulation distribuée de plantes en 3D pour l’agroécologie
Jan 30 – Jan 31 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : UMR AGAP, CIRAD
Durée : 6 mois
Contact : frederic.boudon@cirad.fr
Date limite de publication : 2021-01-30

Contexte :
Pour satisfaire les demandes sociétales pour une agriculture plus durable et écologique, des modèles de plantes simulant leurs croissances et leurs fonctionnements (FSPM) sont développés par la communauté scientifique. Dans le cadre de la plateforme de modélisation OpenAlea, nous développons depuis plusieurs années, différents formalismes de simulation (Pradal et al., 2008; Boudon et al., 2012). En particulier, des grammaires formelles, i.e. L-systems, permettant la réécriture efficace d’arborescences ou des méthodes de réécriture de graphes multi-échelles (MTG) sont disponibles et ont permis de modéliser une grande variété de plantes (pommier, manguier, palmier, maïs, sorgho, etc.).
Les modèles FSPM sont un outil pour l’étude et l’analyse des interactions plante-plante dans des couverts complexes en association (Gaudio et al., 2019, Braghiere et al., 2020). Ils permettent de simuler en 3D la compétition aérienne et racinaire pour l’acquisition des ressources (lumière, nutriments) de façon mécaniste. Il est cependant nécessaire de simuler, à l’échelle de l’organe et en 3D, le développement et le fonctionnement d’un grand nombre de plantes en interaction au sein d’un même couvert. Pour faire cela dans des temps raisonnables, il serait nécessaire de distribuer les calculs de simulation sur de grandes infrastructures de calcul (cluster, cloud). Or, actuellement, il n’existe pas ni de formalisme ni de technologie permettant de distribuer automatiquement la simulation 3D de plantes hétérogènes en interaction.

Sujet :
Le challenge auquel nous essayons de répondre est donc de simuler efficacement un ensemble de plantes en interaction spatiale (compétition pour l’acquisition des ressources) et temporelle (rétroaction entre la structure et la fonction). L’objectif de ce stage est d’analyser différentes stratégies de parallélisation pour simuler en 3D la croissance et le fonctionnement de plantes et peuplements sur des architectures à mémoire partagée et en environnement distribué (Pradal et al., 2017; Heidsieck et al., 2020). Un des enjeux est de définir des design patterns pour des calculs distribués à différentes granularités (simulation parallèle d’une plante isolée, calcul distribué d’un grand nombre de plantes en interaction) en utilisant les technologies actuelles (OpenMP, Spark, Dask). Un enjeu important est de prendre en compte les dépendances entre les calculs faits sur les structures lors de leurs réécritures en fonction des stratégies utilisées (en place ou par copie).
Une application de ce travail sera la simulation d’un système agroforestier mélangeant palmiers et riz pour lequel des modèles préexistants (projets VPalm et Cereals) seront réutilisés.
Le travail de l’étudiant(e) consistera en :
– Définition d’un protocole d’échange d’informations spatiales et de synchronisation entre simulateurs.
– Formalisation d’une stratégie de distribution des simulations sur plusieurs machines ou clusters.
– Application à la création d’un modèle de système agroforestiers Palmier-Riz avec caractérisation de la dynamique de la distribution de la lumière au cours d’un cycle de croissance.

Profil du candidat :
– Goût pour la simulation 3D des plantes.
– Aptitude à travailler en équipe.
– Autonome (possible situation de télétravail).

Formation et compétences requises :
– Informaticien(ne) motivé(e) et curieux(se).
– Bonne connaissance du Python et/ou C++.
– Connaissance en calculs parallèles et distribués (MPI, OpenMP, Sparks).

Adresse d’emploi :
Avenue d’Agropolis, TA 178/04, 34398 Montpellier

Document attaché : 202012030946_offre-stage-calcul-distribue-DIGITAG-2021-vf.pdf

Jan
31
Sun
2021
3D PRIAD : 3D Printer with Intelligent Anomaly Detection
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire ICube, Strasbourg
Durée : 6 mois
Contact : cedric.bobenrieth@ecam-strasbourg.eu
Date limite de publication : 2021-01-31

Contexte :
À l’apogée de l’industrie 4.0, la conception de nouvelles méthodes et applications permettant un suivi et un
contrôle de la production est un réel enjeu. Le projet 3D-PRIAD se concentre spécifiquement sur les
problématiques liées à la production par impression 3D.
En effet, il est nécessaire qu’une imprimante 3D puisse fonctionner de manière autonome en permanence tout
en assurant une production de pièces de bonnes qualités, c’est-à-dire dépourvue de quelconques défauts
d’impressions.
L’équipe MLMS (Machine Learning, Modeling & Simulation) et l’équipe IGG proposent donc un projet
combinant le deep learning à l’analyse d’images et de modèles 3D afin de permettre un suivi en temps réel de
la qualité de l’impression et la détection automatique d’anomalies.
La mission aura lieu sur 6 mois, entre février et août 2021, et se déroulera au sein de l’équipe MLMS du
laboratoire ICube.

Sujet :
L’objectif du stage est de mettre au point une application permettant de déterminer la qualité d’une impression
à partir de capteurs vidéo ; c’est-à-dire être capable de déterminer automatiquement si l’impression est bonne
ou si elle contient des défauts et, le cas échéant, être capable d’indiquer de quel type de défaut il s’agit.
Pour ce faire vous disposerez des données suivantes :
• Ensemble des images obtenues par 5 caméras positionnées de manière à filmer l’ensemble du
processus d’impression 3D selon les 4 côtés (frontal, arrière, gauche et droite) ainsi qu’une vue
de haut. Ces images seront obtenues tout au long du processus, et pas uniquement lorsque
l’impression est terminée. Ceci est nécessaire car certains défauts ne sont plus détectables une
fois le processus fini.
• Le modèle 3D correspondant à la pièce en cours d’impression
Ces données seront issues à partir d’une imprimante 3D Prusa I3 MK3S, machine présente dans la Zone ICube
de l’Ecam et tournant en moyenne 360 heures/mois, nous assurant ainsi d’avoir un jeu de données suffisamment
conséquent pour être traité au cours du projet.
Les méthodes mises en place pour permettre cette analyse de qualité devront ainsi prendre en considération les
5 angles de vues de l’impression ainsi que le modèle 3D attendu. Parmi les approches possibles, deux pistes sont
envisagées :
• La mise en place d’un réseau de neurones multi-classification qui serait chargé de détecter directement
les défauts d’impression sur les images
• Une méthode de reconstruction de modèle 3D à partir des images des caméras pour permettre
d’effectuer un comparatif par rapport au modèle 3D attendu.
Les principales étapes du projet, en plus de l’étude bibliographique, sont :
• Analyse des différents défauts pouvant arriver au cours d’une impression, et détermination des
caractéristiques permettant de les identifier
• Analyse et pre-processing des données (nettoyage des données, labélisation, …)
• Mise en place d’un réseau de neurones permettant une identification des défauts d’impression et
s’assurant une correspondance avec le modèle 3D original
• Intégration de l’application d’analyse de qualité à une Application Web permettant à l’opérateur un
suivi de l’impression
• Optimisation de l’application pour permettre une analyse en temps réel
Le livrable comprend :
• L’application d’analyse de qualité de l’impression
• Une démonstration impliquant la mise en production de l’application sur l’imprimante pour test en
conditions réelles
• Un document de conception (en anglais)
• Rapport de Master/Fin d’étude
• Soutenance.
Il pourra être adapté selon l’évolution du projet.

Profil du candidat :
L’offre s’adresse à un étudiant en M2, ou dernière année d’école d’ingénieur avec de fortes compétences en
informatiques, et notamment en Python.
Des connaissances sur les réseaux de neurones, le traitement et l’analyse d’images et/ou la modélisation 3D
sont un plus.

Formation et compétences requises :
Master 2 informatique ou équivalent.

Adresse d’emploi :
Place de l’hôpital, Strasbourg (67), France

Document attaché : 202012091222_Sujet stage 3DPRIAD_Master2 Recherche.pdf

Analyse de données spatio-temporelles réelles
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ICube
Durée : 6 mois
Contact : aurelie.leborgne@unistra.fr
Date limite de publication : 2021-01-31

Contexte :
Valoriser les grandes masses de données spatio-temporelles disponibles dans différents domaines est crucial. Ceci nécessite de concevoir et de développer des approches innovantes aptes à traiter conjointement les aspects spatiaux et les aspects temporels, ce qui n’est que peu le cas avec les méthodes actuelles. Si les graphes, outils puissants à la fois théoriquement et méthodologiquement, sont utilisés pour modéliser des phénomènes temporels ou spatiaux, les méthodes actuelles de fouille, d’analyse et d’extraction de connaissances n’exploitent, en général, qu’une seule dimension de l’information, spatiale versus temporelle. Cela implique souvent une perte de précision et possibilité d’interprétation des résultats. C’est pourquoi nous nous proposons d’exploiter un modèle de graphe spécifique intégrant différents types de relations, les graphes spatio-temporels.

Sujet :
L’objectif général est d’étudier et développer des techniques pour trouver dans de grands graphes spatio-temporels, des motifs, ou répétitions, auxquels les experts du domaine concerné peuvent donner sens. Plus précisément, il s’agit de mettre en oeuvre des techniques de recherche de motifs (sous-graphes fréquents) sur des jeux de données réelles : images satellitaires, bd géographiques, IRM fonctionnelle (en relation avec des experts de ces domaines). La ou le stagiaire s’appuiera pour cela sur les outils disponibles au laboratoire (pour la construction des graphes et pour l’extraction des motifs) mais devra aussi adapter ou améliorer ces outils. Les tâches suivantes seront à réaliser :
– Bibliographie
– Sélection et prétraitement des données
– Transformation : génération de graphes spatio-temporels, incluant la modélisation des relations spatiales et spatio-temporelles adéquates
– Recherche des motifs fréquents ; extension de l’approche aux motifs inexacts (approximation des étiquettes, ou du nombre d’arêtes et de sommets) et trajectoires,
– Interprétation et comparaison des résultats sur (au moins) deux jeux de données

En fonction de l’avancée, on pourra aussi envisager de comparer les résultats obtenus en recherchant des motifs inexacts dans des données précises ou des motifs exacts dans des données imprécises (par exemple en utilisant des étiquettes floues ou plus générales). L’objectif final est de construire une chaîne de traitement incluant l’ensemble des opérations sur les données d’un domaine.

Profil du candidat :
Autonome en programmation (de préférence Python), connaissances sur les graphes et les réseaux de neurones, intérêt pour le développement expérimental.

Formation et compétences requises :
Master 2 informatique ou équivalent

Adresse d’emploi :
300 bd Sébastien Brant à Illkirch

Document attaché : 202010150920_stages2021-donneesReelles.pdf

Application du Deep Learning sur les images satellites pour la détection des hydrocarbures en mer.
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : PLATFORM/Doctorants

Laboratoire/Entreprise : Laboratoire d’Informatique, Systèmes, Traitement
Durée : 4 à 6 mois
Contact : emna.amri@univ-smb.fr
Date limite de publication : 2021-01-31

Contexte :
Multidisciplinaire: développement, recherche
Mots clés: Deep learning, intelligence artificielle, télédétection, imagerie, segmentation
sémantique.
Données: image satellite (SAR) Sentinel-1

Sujet :
De nos jours, l’observation de la terre 24h/24 à l’aide d’images SAR (Synthetic Aperture
Radar) est un outil permettant à répondre à de nombreuses problématiques d’observation
des sols et des mers. L’exploitation de ces données volumineuses s’appuie de plus en plus
sur des méthodologies big data et le deep learning.
Le cadre de ce sujet de stage s’intéresse à la surveillance de la surface de la mer pour la
détection d’hydrocarbures. Le but est d’aider les photo-interprètes à détecter plus aisément
ces éléments. Des méthodes basées sur l’apprentissage automatique et en particulier les
réseaux de neurones seront mis en œuvre.
Le sujet de stage se décompose en différentes étapes :
1) Prise en main des données et des outils mis à disposition.
2) Mise en œuvre et l’adaptation des réseaux neuronaux de manière supervisée en
utilisant les données SAR. Analyse des prédictions et recherche de justifications
avec des outils comme Gradcam*.
3) Enrichissement de la base de données par des images générés/simulées par l’usage
des réseaux Generative Adversarial Networks(GANs). Etude de l’impact sur les
performances du modèle.
A noter : une plateforme de calcul intensif sera mise à disposition
Références :
Emna, Amri, et al. “Offshore Oil Slicks Detection From SAR Images Through The Mask-
RCNN Deep Learning Model.” 2020 International Joint Conference on Neural Networks
(IJCNN). IEEE, 2020.
*Girard-Ardhuin, Fanny, Grégoire Mercier, and René Garello. “Oil slick detection by SAR imagery: potential and limitation.” Oceans 2003. Celebrating the Past… Teaming Toward the Future (IEEE Cat. No. 03CH37492). Vol. 1. IEEE, 2003.
Saxena, Divya, and Jiannong Cao. “Generative Adversarial Networks (GANs): Challenges,Solutions, and Future Directions.” arXiv preprint arXiv:2005.00065 (2020).
*Selvaraju, Ramprasaath R., et al. “Grad-cam: Visual explanations from deep networks via gradient-based localization.” Proceedings of the IEEE international conference on computer vision. 2017.

Profil du candidat :
Master 2, Ingénieur

Formation et compétences requises :
Connaissances en traitement d’images, intérêts pour les réseaux de neurones
Informatique: Python, Linux
Autonomie

Adresse d’emploi :
LISTIC, Polytech Annecy-Chambéry, 5 chemin de bellevue, Annecy-le-vieux, 74 940 Annecy

Document attaché : 202012122205_2021_stage_IA.pdf

Deep learning et plongement de graphe
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ICube
Durée : 6 mois
Contact : aurelie.leborgne@unistra.fr
Date limite de publication : 2021-01-31

Contexte :
Valoriser les grandes masses de données spatio-temporelles disponibles dans différents domaines est crucial. Ceci nécessite de concevoir et de développer des approches innovantes aptes à traiter conjointement les aspects spatiaux et les aspects temporels, ce qui n’est que peu le cas avec les méthodes actuelles. Si les graphes, outils puissants à la fois théoriquement et méthodologiquement, sont utilisés pour modéliser des phénomènes temporels ou spatiaux, les méthodes actuelles de fouille, d’analyse et d’extraction de connaissances n’exploitent, en général, qu’une seule dimension de l’information, spatiale versus temporelle. Cela implique souvent une perte de précision et possibilité d’interprétation des résultats. C’est pourquoi nous nous proposons d’exploiter un modèle de graphe spécifique intégrant différents types de relations, les graphes spatio-temporels.

Sujet :
Les données spatio-temporelles sont actuellement encore difficiles à visualiser, or les experts des différents domaines ont absolument besoin de cette visualisation. Dans ce stage, nous proposons d’explorer les méthodes qui permettent de visualiser un graphe spatio-temporel (structure de donnée dans laquelle sont skockées les données spatio-temporelles recueillies). Pour les grands graphes, il est intéressant de les plonger dans un espace de plus faible dimension dans lequel les informations structurelles et les propriétés des graphes sont conservées au mieux. Pour ce faire, il existe des techniques efficaces, qui sont notamment basées sur l’apprentissage profond ou Deep learning, que nous proposons d’étudier et d’adapter afin de les appliquer aux graphes spatio-temporels. Dans ce stage, les tâches suivantes seront à réaliser :
-Étude bibliographique afin de déterminer les avantages et inconvénients des différentes méthodes existantes
– Sélection et mise en oeuvre de certaines de ces méthodes sur des jeux de données tests (graphes quelconques) accessibles en ligne, dans un premier temps, puis sur des données spatio-temporelles.
– Choix et adaptation éventuelle d’une méthode permettant de réduire la dimension des graphes spatio-temporels
– Expérimentation de la méthode choisie sur jeux de données réelles agricoles ou médicales, évaluation avec des experts du domaine.

Profil du candidat :
Autonome en programmation (de préférence Python), connaissances sur les graphes et les réseaux de neurones, intérêt pour le développement expérimental.

Formation et compétences requises :
Master 2 informatique ou équivalent

Adresse d’emploi :
300 bd Sébastien Brand à Illkirch

Document attaché : 202010150922_stages2021_graph_embedding.pdf

Deep learning pour la recherche de motifs fréquents dans un graphe
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ICube ou Institut Pascal
Durée : 6 mois
Contact : aurelie.leborgne@unistra.fr
Date limite de publication : 2021-01-31

Contexte :
Le recueil de données spatio-temporelles est de plus en plus fréquent, que ça soit dans le domaine médical, environnemental, industriel, etc. Pour valoriser ces grandes masses de données spatio-temporelles nous voulons développer une approche innovante, basée sur le deep learning. Plus précisément, nos données étant modélisées par un graphe spatio-temporel, nous désirons travailler sur la recherche de sous-graphes fréquents au sein d’un même graphe. Ainsi, nous pourrions apporter, aux différents experts des domaines, une réponse sur les évenements qui se reproduisent fréquemment au cours du temps et à des endroits différents. Plusieurs applications potentielles des résultats de stage sont envisageables :
– le calcul d’une forme moyenne ou caractéristique à partir de géométries à des instants différents, comme à partir d’acquisitions d’imageries médicales dans un suivi patient ;
– dans le cadre de l’analyse des registres parcellaires graphiques dans le temps, pour extraire des parcelles qui sont cultivées de manière similaire, en prenant en compte les reconfigurations de leur périmètre ;
– rechercher les interactions récurrentes entre les réseaux neuronaux dans des imageries par résonance magnétique fonctionnelles cérébrales.

Sujet :
Les tâches suivantes seront à réaliser :
– Bibliographie sur le sujet ;
– Réflexion sur les réseaux de neurones profonds à utiliser afin d’obtenir, dans un premier temps, un motif qui se répète dans un graphe. Techniquement, en entrée du réseau de neurones, nous aurions un graphe spatio-temporel à analyser et en sortie un sous-graphe spatio-temporel fréquent. Pour ce faire, il sera probablement nécessaire de combiner différentes architectures existantes comme les Convolutional Graph Neural Networks (ConvGNNs) ou les Graph AutoEncoders (GAEs) et donc de travailler sur la structuration des réseaux ;
– Mise en oeuvre du réseau de neurones, par le biais de librairies appropriées comme PyTorch, Deep Graph Library ou encore Tensorflow ;
– Tests de la méthode réalisée, interprétation et comparaison des résultats ;

Profil du candidat :
Autonome en programmation (de préférence Python), connaissances sur les graphes et les réseaux de neurones, intérêt pour le développement expérimental.

Formation et compétences requises :
Master informatique ou équivalent

Adresse d’emploi :
300 bd Sébastien Brant à Illkirch
ou
8 Rue Jean Baptiste Fabre Le Puy-en-Velay

Document attaché : 202010150918_stage2021_DL-RechercheMotifsFrequents.pdf

Détection de communautés multicouches sur réseaux complexes issus des images satellites
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : UMR TETIS
Durée : 6 mois
Contact : roberto.interdonato@cirad.fr
Date limite de publication : 2021-01-31

Contexte :
Le CIRAD est engagé dans le développement des agricultures des Pays du Sud, où la réduction de la pauvreté et la sécurité alimentaire sont des préoccupations sensibles. Ce développement passe notamment par le déploiement de solutions numériques innovantes, incluant des méthodologies alternatives pour modéliser et analyser les informations contenues dans les séries temporelles d’images satellitaires.
Dans ce contexte, le projet AMORIS a pour objectif d’explorer les possibilités de caractérisation spatio-temporelle de paysages à grande échelle par une approche de modélisation fondée sur les objets géographiques à des échelles plus fines, en passant donc par une représentation du paysage sous forme de graphes multiples d’interaction à dimensions élevées. Un modèle qui d’appuie sur de tels réseaux complexes conduit à une représentation spatiale des données satellitaires qui va au-delà de la cartographie classique : en prenant notamment en compte les différents types de relations entre objets ou segments identifiés dans les images, correspondant aux éléments « primitifs » du paysage (parcelles agricoles, tâches de végétation naturelle, îlots et structures artificialisés, etc.), ces modèles structurent l’information permettant de remonter vers l’identification d’unités paysagères à plus grande échelle, ayant une connotation « fonctionnelle » homogène dans le paysage. De plus, cette modélisation sous forme de réseaux complexes permet d’appliquer des méthodes récentes d’analyse de réseaux afin de caractériser ces unités paysagères à partir d’information non seulement spectrale ou texturale, et ce de façon non supervisée. Ces connaissances obtenues permettent par exemple de mettre en relief l’organisation spatiale des entités qui constituent un paysage en complément de leur dynamique temporelle.

Sujet :
L’objectif de ce stage est d’étudier de façon exhaustive comment des méthodes de détection de communautés multicouches (Magnani et al. 2019)1 peuvent être utilisées pour obtenir une stratification automatique du paysage agricole. Une méthodologie proposée en 2019 dans le cadre du même projet (Interdonato et al., 2019)2 sera utilisée pour modéliser une série temporelle d’images satellitaires Sentinel-2 sous forme de réseaux multicouches. Différentes méthodes de détection de communautés multicouches seront ensuite testées pour l’identification des différentes unités paysagères.
Plusieurs zones d’étude seront prises en considération, localisées dans des pays de l’Afrique de l’Ouest, et notamment au Burkina Faso et au Sénégal. Ces zones agricoles représentent en effet un terrain particulièrement intéressant pour la méthodologie proposée en raison de la fragmentation et de l’évolution constante des paysages les englobant.

1 Matteo Magnani, Obaida Hanteer, Roberto Interdonato, Luca Rossi, Andrea Tagarelli : Community Detection in Multiplex Networks. CoRR abs/1910.07646 (2019) https://arxiv.org/abs/1910.07646
2 R. Interdonato, R. Gaetano, D. Lo Seen, M. Roche, G. Scarpa : Extracting Multi-Layer Networks from Sentinel-2 Satellite Image Time Series. Network Science, Cambridge University Press (2019)

Mots clefs :
Analyse des réseaux, détection de communautés, réseaux multicouches, réseaux complexes, télédétection, images satellites, stratification du paysage agricole

Profil du candidat :
L’étudiant(e) sera spécialisé(e) dans la fouille des donnés, et plus spécifiquement dans l’analyse des réseaux complexes et fouille de graphes.
Il/elle devra être à l’aise en programmation, préférablement avec le langage Python. Il/elle devra apprécier la découverte et l’exploration méthodologique, la démarche scientifique, et fera preuve d’un bon esprit d’analyse critique.
Un bon sens du travail en équipe est fortement souhaité, ainsi que le goût pour les collaborations interdisciplinaires. Une bonne culture dans le domaine thématique de l’agriculture en milieu tropicale sera appréciée.

Formation et compétences requises :
– analyse des réseaux complexes
– fouille des donnés
– fouille de graphes
– programmation (préférablement Python)

Adresse d’emploi :
L’étudiant(e) sera hébergé(e) pour la durée de son stage à la Maison de la Télédétection, 500 Rue JF Breton, 34000 Montpellier. Il/elle aura à sa disposition une machine de calcul et un accès aux outils informatiques de la MTD.
Il/elle sera potentiellement soumis à des périodes de télétravail selon les conditions sanitaires.

Document attaché : 202012021100_Amoris – Sujet de Stage M2 2021.pdf

Developements de nouveaux outils de l’apprentissage automatique pour classification, analyse et inter
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : ATLAS/Doctorants

Laboratoire/Entreprise : L2S
Durée : 4 to 6 month
Contact : djafari@lss.supelec.fr
Date limite de publication : 2021-01-31

Contexte :
Development of new Machine Learning methods for classification, analysis and interpretation of images for Orthodontics
The main idea is to continue to develop new methods of ML for classification, analysis and interpretation of different kind of orthodontics images such as:
• Lateral x-rays radiography for
— determining the degrees of maturation of the vertebra;
— automatic contouring the the vertebra;
— automatic cephalometric analysis, etc.
• Panoramic x-rays radiography — for automatic contouring the teeth; — classification of degree of inclination of incisives;

Sujet :
Development of new Machine Learning methods for classification, analysis and interpretation of images for Orthodontics
The main idea is to continue to develop new methods of ML for classification, analysis and interpretation of different kind of orthodontics images such as:
• Lateral x-rays radiography for
— determining the degrees of maturation of the vertebra;
— automatic contouring the the vertebra;
— automatic cephalometric analysis, etc.
• Panoramic x-rays radiography — for automatic contouring the teeth; — classification of degree of inclination of incisives;

• The main theoretical aspect is related to Interpretable Machine Learning
a large maxillofacial radiology database (15,000 X ray) has already been launched and ready to use for this study

https://scholar.google.fr/scholar?q=Interpretable+Machine+Learning&hl=fr&as_sdt=0&as_vis=1&oi=scholart
https://christophm.github.io/interpretable-ml-book/
• The work will be done in cooperation with other orthodontics physicans
• https://www.makaremi-orthodontie.fr
• https://www.makaremi-orthodontie.fr/media/articles/artificial-intelligence-applications-in-orthognathic-surgery.pdf

Profil du candidat :
stage de Master 2 pour une durée de 4 à 6 mois

Formation et compétences requises :
Machine Learning
Python programming
Image processing
Image classification

Adresse d’emploi :
Due to Covid, main part of the work will be done from home.
A Computer with GPU is available and it can be accessed to run the developed program on image data bases. with remote access by Teamviewer.
However, once a month, it may be necessary to b e on place at the orthodontics institute of Dr. Makaremi
Indeminization: 700 Euros / month

Document attaché : 202012162218_offre_de_stage_2021 .pdf

Fouille de motifs structurés interactive
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : GREYC, Université de Normandie Caen
Durée : 5-6 mois
Contact : albrecht_zimmermann@gmx.net
Date limite de publication : 2021-01-31

Contexte :
Fouille de motifs structurés interactive

Stage de recherche master de 5 ou 6 mois, GREYC, équipe CoDaG, Université de Caen Normandie, France

Contact : Albrecht Zimmermann (albrecht.zimmermann@unicaen.fr)

Encadrants scientifiques : Albrecht Zimmermann, Bertrand Cuissart, Abdelkader Ouali

Début: Février/Mars 2021

Gratification: selon les règles en vigueur (environ 560e par mois).

Ce stage de recherche sera réalisé dans le cadre du projet InvolvD, soutenu financièrement par l’Agence nationale de la recherche (ANR).
La fouille de motifs est une tâche consistant à trouver des régularités ou des motifs inattendus dans de grandes bases de données. La fouille de motifs structurés effectue cette tâche sur des données structurées comme des séquences, des arbres ou, ce qui est particulièrement important pour InvolvD, des graphes. Jusqu’à récemment, la fouille de motifs correspondait à une application répétée des étapes suivantes : l’utilisateur des données étudiées spécifie et paramètre des contraintes, puis il explore un large ensemble de modèles résultants et ajuste les contraintes et relance le processus.

Les candidats sont encouragés à nous contacter dès que possible. Le début du stage est prévu pour février ou mars 2021. Le dossier de candidature complet se compose des documents ci-dessous, qui doivent être envoyés sous forme de fichier PDF unique à Albrecht Zimmermann (albrecht.zimmermann@unicaen.fr), Bertrand Cuissart (bertrand.cuissart@unicaen) et Abdelkader Ouali (abdelkader.ouali@unicaen.fr).
– CV
– Une lettre de motivation d’une page (indiquant clairement la date d’entrée en fonction disponible ainsi que les qualifications, l’expérience et la motivation pertinentes)
– Certificats et relevés de notes universitaires (notes de licence et de master)
– Coordonnées de trois personnes de référence au maximum
– Eventuellement un certificat de langue anglaise et une liste de publications
– Attention : tous les documents doivent être rédigés en anglais ou en français.

Sujet :
Récemment, plusieurs chercheurs ont proposé d’intégrer le retour d’information de l’utilisateur pour modéliser de façon plus directe les contraintes de fouille. Ce retour d’information consiste généralement à rejeter ou à accepter des motifs individuels, ou à classer un petit ensemble de motifs. En plus du langage des modèles lui-même, les motifs ont une deuxième représentation dans ce cadre, qui les caractérise par rapport aux statistiques observées, aux instances couvertes, etc. Cette dernière représentation est utilisée avec le retour d’information de l’utilisateur pour apprendre une fonction de préférence, par exemple via un SVM ou un estimateur par régression. L’optimisation de cette fonction de préférence guide ensuite le processus d’extraction vers les zones de l’espace de recherche qui sont supposées contenir des motifs intéressants pour l’utilisateur, et loin de celles qui contiennent des motifs inintéressants.

Les travaux existants sur l’exploration interactive de motifs se limitent principalement à des motifs non-structurés, c’est-à-dire des ensembles d’éléments, qui peuvent être distingués plus facilement et pour lesquels des représentations ad hoc de motifs peuvent être construites sans grand effort. Par exemple, un itemet {i1, i2, i3, i4} diffère de {i1, i2, i3, i5} par la *présence* de i4/i5 et une représentation de modèle qui implique des indicateurs de présence peut être utilisée pour apprendre cela. Une séquence i1->i2->i3->i4 diffère de i2->i4->i3-

Profil du candidat :
Étudiant en master informatique ou mathématique appliquée, approfondissement apprentissage/fouille de données.

Formation et compétences requises :
Compétences requises :
– Une expérience dans l’apprentissage automatique, la fouille de données, la programmation ou les mathématiques appliquées est très appréciée.
– Le français et/ou l’anglais sont les langues de travail.

Adresse d’emploi :
Bd du Maréchal Juin. 14032 Caen Cedex, France

Stage Développeur Python/Scraping
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ANIL
Durée : 6 mois
Contact : wael.jradi@anil.org
Date limite de publication : 2021-01-31

Contexte :
Les données affichées par la plupart des sites Web ne peuvent être consultées qu’à l’aide d’un navigateur Web. Ils n’offrent pas la fonctionnalité pour enregistrer une copie de ces données pour un usage personnel. La seule option est alors de copier et coller manuellement les données – un travail très fastidieux qui peut prendre plusieurs heures, voire plusieurs jours. Le Web Scraping est la technique d’automatisation de ce processus, de sorte qu’au lieu de copier manuellement les données des sites Web, le logiciel Web Scraping effectuera la même tâche en une fraction du temps.

Sujet :
Au sein d’une équipe composée de chargés d’études, statisticiens et data scientist, nous cherchons un(e) stagiaire développeur Python (durée de 4 à 6 mois) pour travailler sur le développement d’un outil de scraping et de crawling. Les principales missions sont : dimensionnement de l’infrastructure nécessaire (serveur+stockage de données), extraction et exploitation de la data (utilisation des outils de scraping en Python), récupération de nouvelles sources de données et transformation de ces données

Profil du candidat :
Vous êtes force de propositions, force d’innovations et avez des capacités de
synthèse et d’analyse :
– Maîtrise en Python et traitement des données
– Bonnes connaissances en HTML, Javascript et CSS
– Expérience dans l’écriture d’outils de scraping (projets scolaires, professionnels ou personnels)
– Connaissances des BDD
– Intérêt pour la partie infrastructure informatique
– Maîtrise des outils BI
– Enthousiaste, autonome et polyvalent(e)

Formation et compétences requises :
De formation Bac+4 ou bac +5 dans le domaine de l’ingénierie informatique, data science et/ou école d’ingénieur.

Adresse d’emploi :
Paris, France

Document attaché : 202011190904_Offre_de_stage_M2_2021.pdf

Traitement de données d’acoustique passive sous-marine issues d’éléphant de mer biologgés pour évalu
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Département STIC de l’ENSTA Bretagne, rattaché au
Durée : 6 mois
Contact : dorian.cazau@ensta-bretagne.fr
Date limite de publication : 2021-01-31

Contexte :
Sur l’ensemble des océans du globe, la dynamique fine échelle de la couche de mélange à l’interface air/eau est très complexe, avec une contribution majeure de facteurs météorologiques de surface comme le vent. Une bonne caractérisation de ce forçage météorologique est cruciale pour la modélisation de différents processus océanographiques, tels que l’enrichissement de la couche euphotique en nutritif nécessaires à la production primaire. Cette production primaire peut générer l’agrégation des niveaux trophiques intermédiaires et supérieur. A travers ce sujet de stage nous souhaitons évaluer l’apport de données acoustiques in-situ collectées par des éléphants de mer au cours de leur plongée afin d’estimer les variations de bruits ambiant liées d’une part à la géophonie (vent et pluie) et d’autre part à la biophonie liées à la présence de poissons mésopélagiques.

De par sa couverture globale, la télédétection spatiale constitue l’outil le plus adapté à l’échelle globale pour estimer les conditions météorologiques de surface. Cependant, ses mesures possèdent de nombreux biais (absence de référence absolue) et incertitudes relatives dépendant des environnements océaniques, auxquels s’ajoutent des problèmes de manque de données, de cycle d’échantillonnage trop longs et de résolution spatiale de mesures trop larges, selon les applications. Ces limites se font particulièrement sentir dans des océans éloignés à la biogéographie complexe tels que l’Océan Austral et l’Antarctique. Ces erreurs de mesures peuvent conduire à une surestimation de l’influence des vents dans les ré-analyses de phénomènes de mélange.

Sujet :
Ce stage consistera à utiliser un jeu de donné unique collecté par des éléphants de mer équipés de multiples capteurs environnementaux. Il s’agit d’une part de mesure deprofils de température et salinité à haute fréquence (60 fois par jours avec une mesure de T/S/P toutes les 2 secondes) permettant d’évaluer précisément la profondeur de la couche de mélange et l’intensité de la stratification. D’un capteur de lumière/fluorescence permettant d’évaluer les concentrations en chlorophylle-a utilisée comme indicateur des concentrations en phytoplancton. La vitesse et la direction du vent seront estimées à partir des mesures acoustiques réalisées sur les éléphants de mer au cours de leurs plongées (Cazau et al. 2017a) tandis que la direction du vent, et l’état de la mer sont évalués à partir des mesures d’accélérations et du magnétomètre lorsque l’éléphant de mer respire en surface (Cazau et al. 2017b). Les mesures in-situ éléphants de mer seront comparées à celle fournies par des mesures d’état de la mer et de vitesse du vent par satellites (CFOSAT en particulier).
L’objectif de ce stage sera d’évaluer l’influence:
1) Des coups de vents sur les propriétés de la couche de mélange
2) De la modification des propriétés de la couche de mélange sur le démarrage de la production phytoplanctonique ainsi que la distribution du phytoplancton dans la couche euphotique.
3) Enfin d’évaluer les variations de bruits ambiant qui pourrait être liés à la biophonie et notamment la présence plus ou moins importante de proie. En effet les femelles éléphants de mer sont connues pour se nourrir essentiellement de poissons lanterne, connus pour produire des chœurs susceptibles de faire monter le bruit ambiant de 5 à 10 décibels selon un rythme nycthéméral. Nous chercherons à détecter la présence de tels chœur, et si l’intensité des chœurs co-varie avec le nombre de proies rencontrées par les éléphants de mer le long de leur trajet. Si le temps le permet nous chercherons à évaluer si ces animaux se déplacent le long de gradients acoustiques générés par biophonie des proies.

L’objectif scientifique de ce stage sera donc :
– D’une part d’obtenir une meilleure compréhension dans l’espace et le temps à la fois des conditions de météorologiques de surface, qui sont d’un intérêt fondamental pour développer des paramétrisations spécifiques à différents environnements marins reliant la distribution verticale des propriétés biogéochimiques aux forçages météorologiques de surface, ainsi que pour affiner les algorithmes satellitaires actuels aux spécificités régionales des océans. De telles améliorations des produits satellitaires des vitesses de vent à l’échelle régionale (dans l’océan austral notamment) auront des implications importantes pour la justesse des projections des modèles régionaux dans le système-terre en réponse au changement climatique ;
– D’autre part d’évaluer la contribution des mesures acoustiques sous-marine dans l’évaluation du paysage acoustique d’origine biologique dans lequel évolue les éléphants de mer et l’utilisation de ces informations dans la localisation des zones de fortes concentrations en proies.

La première partie du stage sera dédiée à:
– Une étude bibliographique sur l’utilisation de mesures acoustiques sous-marine pour l’évaluation du vent, de la pluie et des biophonies.
– L’apprentissage de la manipulation et traitement des données d’acoustiques et des données comportementales et environnementales éléphants de mer.
– L’apprentissage des produits satellite d’estimation de l’état de la mer, de la vitesse et direction du vent.
– Au traitement des jeux de données acoustiques et comportementales (plongées, tentatives de captures de proies) le long des trajectoires des animaux.

Profil du candidat :
Ecole d’ingénieur généraliste, spécialisation Data sciences

Formation et compétences requises :
Ecole d’ingénieur généraliste, spécialisation Data sciences

Compétence requises :
– Un attrait pour le traitement des sonnées satellite,
– Un attrait pour les approche IA.
– Bon bagage quantitatif et bonne maitrise d’outils tels que Python et/ou R
– Un intérêt pour la biologie et le travail interdisciplinaire.

Adresse d’emploi :
ENSTA Bretagne
2 rue François Verny
29806 Brest Cedex 9

Document attaché : 202011041447_sujet_stage_master2_Cazau_Guinet.pdf

Feb
1
Mon
2021
Intégration préférences utilisateurs pour la fouille données selon intérêt subjectif de l’utilisateu
Feb 1 – Feb 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRISA (Rennes)
Durée : 5 à 6 mois
Contact : bruno.cremilleux@unicaen.fr
Date limite de publication : 2021-02-01

Contexte :
Mots-clés : fouille de données interactive, mesures d’intérêt, préférences utilisateur

Contexte :
Les méthodes de fouille de données ont pour objectif d’assister l’utilisateur dans sa compréhension des données, en découvrant des modèles intuitifs, utiles, inattendus mais surtout intéressants pour ce dernier. L’importance de l’utilisateur dans ce processus d’exploration paraît donc évidente. Extraire des modèles présentant un intérêt pour l’utilisateur implique la prise en compte de ses attentes. Dans ce cadre, la notion de préférence a été définie : une préférence reflète une “opinion” d’un utilisateur sur un objet d’intérêt, ici un modèle (ex. une règle d’association, un itemset, un cluster, etc.).

Les préférences expriment des comparaisons sur un ensemble d’éléments, de choix ou dans notre cas des modèles. Les préférences peuvent être exprimées sous différentes formes : de manière quantitative, en indiquant des notes/scores grâce à des mesures d’intérêt (ex. mesures statistiques sur des règles [2], l’intérêt subjectif de l’utilisateur [3]), ou de manière qualitative [4], par des comparaisons par paires ou d’autres formalismes de préférences plus sophistiqués (par exemple, “Je préfère la règle d’association A à la règle d’association B”). L’approche qualitative est plus générale que l’approche quantitative. Les préférences apparaissent donc comme un moyen naturel pour classer les modèles. Pourtant la notion de préférence utilisateur est encore peu utilisée en fouille de données, alors qu’elle permet à l’analyste d’exprimer des requêtes de façon plus riche que les traditionnelles mesures d’intérêt [1]. Ce manque d’utilisation s’explique certainement par la difficulté pour l’utilisateur à expliciter la relation de préférence permettant de formaliser ses attentes. En effet, plus un modèle de préférence est expressif, plus il est difficile à représenter/acquérir et à intégrer dans le processus de fouille.

Sujet :
Travail à réaliser :
Dans ce stage, nous nous intéresserons plus particulièrement à l’intérêt subjectif de l’utilisateur [4,5]. La fouille de données selon l’intérêt subjectif de l’utilisateur consiste à rechercher des modèles surprenants par rapport à une connaissance du domaine telle qu’un a priori sur les données. Autrement dit, on maximise la préférence de l’aspect inattendu de l’information découverte par rapport à la connaissance du domaine.

Nous pensons intéressant et prometteur de combiner des préférences qualitatives (ex. relation d’ordre Pareto, préférences conditionnelles ou floues, etc.) à l’intérêt subjectif de l’utilisateur dans le processus d’explicitation de préférences. Les motifs obtenus auront ainsi un intérêt à la fois selon la connaissance du domaine (ici issue des données) et des préférences de l’utilisateur (i.e. extraction de modèles divers et représentatifs, en plus d’avoir un intérêt pour l’utilisateur).

Pour ce faire, un certain nombre de verrous sont à lever : (i) choix de la mesure d’intérêt subjectif ; (ii) choix du modèle de préférence qui va déterminer la représentation de l’utilisateur (compromis entre expressivité et complexité du modèle) ; (iii) intégration des préférences qualitatives dans le calcul de la mesure d’intérêt subjectif.

Le but ultime de ce stage est de construire un système capable d’expliciter les préférences de l’utilisateur à partir de motifs découverts dans les données selon un scénario de fouille interactive [6, 7] alternant phases de fouille de données et phases d’apprentissage. A partir d’une requête initiale de l’utilisateur, le système présente un premier ensemble de motifs : (1) l’utilisateur sélectionne certains de ces motifs, les désignant comme réellement intéressants pour lui ; (2) le système considère ces motifs comme des exemples de préférences de l’utilisateur et apprend alors ses préférences ; (3) une nouvelle collection de motifs est extraite en utilisant ces préférences mises à jour, celle-ci est présentée à l’utilisateur, et retour à l’étape (1).

Références :

[1] Liqiang Geng and Howard J Hamilton. Interestingness measures for data mining: A survey. ACM Computing Surveys (CSUR), 38(3):9, 2006.

[2] Wilhelmiina Hämäläinen and Matti Nykänen. Efficient discovery of statistically significant association rules. In Proceedings of the 8th IEEE Int. Conf. on Data Mining (ICDM 2008), December 15-19, 2008, Pisa, Italy, pages 203–212, 2008.

[3] Tijl De Bie. Maximum entropy models and subjective interestingness: an application to tiles in binary databases, DAMI, 2011.

[4] Öztürké, Meltem, Alexis Tsoukiàs, and Philippe Vincke. “Preference modelling.” Multiple criteria decision analysis: State of the art surveys. Springer, New York, NY, 2005. 27-59.

[5] Puolamäki, Kai, Oikarinen, Emilia, Kang, Bo, et al. Interactive visual data exploration with subjective feedback: an information-theoretic approach. Data Mining and Knowledge Discovery, 2020, vol. 34, no 1, p. 21-49.

[6] B. Crémilleux, M. Plantevit, and A. Soulet. Preference-based pattern mining. In 14th International Conference on Formal Concept Analysis, Rennes, France, 2017.
https://perso.liris.cnrs.fr/marc.plantevit/doku/doku.php?id=preferencebasedpatternminingtutorial#material

[7] M. Van Leeuwen. Interactive data exploration using pattern mining. In Interactive knowledge discovery and data mining in biomedical informatics, pages 169–182. Springer, 2014.

Profil du candidat :
Profil souhaité :
Etudiante ou étudiant en master informatique ou école d’ingénieur en informatique. De solides compétences en fouille de données et programmation ainsi qu’une ouverture sur les statistiques seront hautement appréciées.

Formation et compétences requises :
French and/or English are the working languages possible.

Les candidates et candidats sont encouragés à nous contacter dès que possible.

Adresse d’emploi :
Laboratoire d’accueil : IRISA (Rennes) – CNRS UMR 6074

Encadrement :
• Bouadi Tassadit, Cellier Peggy, et Termier Alexandre (prenom.nom@irisa.fr) IRISA-INRIA Rennes (LACODAM – SEMLIS)
• Crémilleux Bruno (bruno.cremilleux@unicaen.fr) GREYC – Université de Caen Normandie

Période :
Stage de 5 à 6 mois à effectuer entre le 1er février et le 31 août 2021.

Gratification :
Selon règles en vigueur (environ 560 euros par mois.

Pour candidater :
Pour candidater, envoyer les documents suivants (exclusivement au format pdf) à tassadit.bouadi@irisa.fr, alexandre.termier@irisa.fr, peggy.cellier@irisa.fr et bruno.cremilleux@unicaen.fr :
• curriculum vitae ;
• lettre de motivation expliquant vos qualifications, expériences et motivation pour ce sujet ;
• relevé de notes de licence 3, de 1ère année de master et les notes de 2ème année de master disponibles ou équivalent pour les écoles d’ingénieurs ;
• noms de personnes pouvant fournir des informations sur vos compétences et votre travail.

Document attaché : 202011220001_2020-2021_StagePreferencesMesuresInteret_sujet.pdf

Feb
3
Wed
2021
Developpement et deploiement de strategies de replication de donnees sur
Feb 3 all-day

Offre en lien avec l’Action/le Réseau : PLATFORM/– — –

Laboratoire/Entreprise : Institut de Recherche en Informatique de Toulouse
Durée : 5 à 6 mois
Contact : mokadem@irit.fr
Date limite de publication : 2021-03-01

Contexte :
Cloud, Rréplication de données, NoSQL, Déploiement, Grid’5000

Sujet :
Les infrastructures récentes telles que le Cloud se doivent de considérer une gestion élastique des
ressources tout en prenant en compte l’aspect commercial pour les fournisseurs de Cloud public. Cela
entra^ne la mise en place d’un modèle économique ‘Pay-as-you-go’ qui signifie que l’utilisateur paie
uniquement ce qu’il consomme comme ressources. Le Service Level Agreement (SLA), un contrat signé entre le fournisseur et le locataire, doit également être respecté. Coté locataire, ce contrat précise le
montant payé par ce dernier au fournisseur pour la location des services. Dans le SLA, on retrouve
également les objectifs de niveau de service que le fournisseur doit satisfaire au risque de payer des
pénalités au locataire concerné. Parmi ces objectifs, on citera les objectifs de disponibilité et de performances. De plus, les considérations environnementales sont de plus en plus présentes dans l’esprit
collectif augmentant ainsi l’impact de politiques réduisant la consommation énergétique et donc de la
production de gaz a e et de serre.
La réplication de données, une technique largement utilisée dans les systèmes distribués, permet
d’améliorer la disponibilité de données et de réduire le temps de réponse lors de l’accès à ces données.
De nombreuses stratégies de réplication de données ont été proposées dans différentes architectures
en tenant compte des caractéristiques de chacune de ces architectures. Dans les architectures Cloud, ces
stratégies s’appuient sur l’élasticité pour le partage de ressources entre les différents locataires tout en
satisfaisant les objectifs attendus par ces locataires, en termes de performances par exemple. De nos
jours, la satisfaction d’autres objectifs tels que la réduction des dépenses du fournisseur ou encore de la
consommation énergétique constituent un challenge intéressant a relever.
La plate-forme Grid5000 est une plate-forme d’expérimentation nationale présente sur 8 sites différents
et contenant plus de 800 nœuds. Cette plate-forme permet de réaliser des expériences sur des architectures a large echelle. De plus, de nombreux outils sont mis en place sur cette plate-forme pour émuler des
nœuds présents dans différentes villes. Ils permettent également d’estimer la consommation en puissance
des logiciels et conteneurs sur plusieurs nœuds.
L’objectif de ce stage est de développer et de déployer plusieurs stratégies de réplications de données
sur des nœuds de Grid5000 puis, de les comparer. Ces stratégies de réplication de données seront mises
en place sur un système de gestion de fichiers distribués de type Hadoop. Par la suite, des requêtes
seront mises en place a n d’interroger des bases de données de type NoSQL. Différentes charges de
travail seront également considérées afin de rréaliser des expérimentations réelles sur des infrastructures
physiques. En n, ce stage se déroulera a l’IRIT (Institut de Recherche en Informatique de Toulouse) et
se fera en soutient d’un doctorant en 3eme année de Thèse .

Profil du candidat :
Master 1 ou Master 2

Formation et compétences requises :
Mots clés : Cloud, Réplication de données, NoSQL, Déploiement, Grid’5000
Compétences attendues : Programmation (Java, Python ou C), Déploiement d’outils
Rémunération : 564€/mois

Adresse d’emploi :
Institut de Recherche en Informatique de Toulouse (IRIT), Université Paul Sabatier Toulouse III

Document attaché : 202101181031_Offre_de_Stage 2021_déploiment Grid5000 Français_anglais.pdf

Feb
4
Thu
2021
Réseaux convolutifs équivariants pour la segmentation sémantique
Feb 4 – Feb 5 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Cédric – Conservatoire national des arts et métier
Durée : 6 mois
Contact : nicolas.audebert@cnam.fr
Date limite de publication : 2021-02-04

Contexte :
Les réseaux de neurones convolutifs (CNN) constituent depuis quelques années le nouvel état de l’art en vision par ordinateur et traitement d’images. Ces réseaux sont construits autour de l’opérateur de convolution qui est par construction équivariant par translation : si une image d’entrée subit une translation, son image convoluée sera translatée de la même manière. Cette propriété est particulièrement intéressante en reconnaissance d’objets dans la mesure où la position d’un objet dans l’image n’influe en général pas sur sa nature sémantique.

Cependant, la convolution ne présente pas d’équivariance à des transformation plus complexes. Ainsi, les CNNs souffrent de performances dégradées lorsque l’on les applique sur des images ayant subie une une rotation ou une réflexion, dès lors que cette transformation n’est pas
observée dans le jeu d’entraînement soit naturellement, soit par l’utilisation de technique de data augmentation.

Plusieurs approches ont été introduites dans la littérature pour tenter de rendre les CNN équivariants à des transformations géométriques complexes, soit en explicitant les contraintes d’équivariance au sein de la fonction de coût [4], soit par construction en travaillant sur des notions de
groupes de symétrie [1, 7, 3, 5, 6]. Les modèles basés sur cette dernière approche sont dits Group Equivariant Convolutional Neural Networks (G-CNN). L’objectif de ce stage est d’investiguer la mise en œuvre de ces techniques dans des applications concrètes pour évaluer leur capacité à
contraindre l’équivariances des réseaux convolutifs à différents types de transformations.

Sujet :
Le premier objectif de ce stage est de se familiariser avec la théorie des G-CNNs ainsi que leur implémentation en se basant sur [1, 2]. Les performances de ces réseaux seront d’abord évaluées en classification sur des bases classiques telles que MNIST et CIFAR. Nous nous intéresserons par la suite à des applications en segmentation sémantique d’images, par exemple des images médicales [3], aériennes et satellitaires. En effet, ces images présentent des équivariances naturelles aux rotations et aux réflexions.Dans un deuxième temps, nous comparerons les représentations apprises par ces modèles équivariants par construction à ceux des CNN classiques ainsi qu’à d’autres modèles qui imposent
l’équivariance par contrainte [4].

[1] T. Cohen and M. Welling. Group equivariant convolutional networks. In International Conference on Machine Learning, pages 2990–2999, 2016.
[2] Jasper Linmans and others. Sample Efficient Semantic Segmentation using Rotation Equivariant Convolutional Networks, 2018.
[3] B. S. Veeling et al. Rotation Equivariant CNNs for Digital Pathology. In Medical Image Computing and Computer Assisted Intervention – MICCAI 2018, pages 210–218, 2018.
[4] Y. Wang et al. Self-supervised scale equivariant network for weakly supervised semantic segmentation. In Computer Vision and Pattern Recognition, 2020.
[5] M. Weiler, F. A. Hamprecht, and M. Storath. Learning Steerable Filters for Rotation Equivariant CNNs, 2018.
[6] M. Winkels and T. S. Cohen. 3D G-CNNs for Pulmonary Nodule Detection, 2018.
[7] D. E. Worrall et al. Harmonic Networks : Deep Translation and Rotation Equivariance, 2017.

Profil du candidat :
Nous recherchons pour ce stage un·e candidat·e de niveau M2 ou dernière année d’école d’ingénieur avec une formation en mathématiques appliquées, en informatique ou en traitement du signal. Le ou la candidat·e idéal·e a une appétence pour la recherche scientifique et des bases théo-
riques en apprentissage automatique. Des notions de traitement d’image ou de mathématiques algébriques (théorie des groupes, algèbre générale) sont un plus pour ce sujet.

Formation et compétences requises :
Une connaissance de la programmation avec Python est préférable, il est toutefois envisageable pour un·e candidat·e connaissant un autre langage de programmation de se former à Python au cours du stage. Une première expérience avec une bibliothèque d’apprentissage profond telle que TensorFlow ou PyTorch est la bienvenue.

Adresse d’emploi :
Laboratoire Cédric – 2 rue Conté, 75003 Paris

Document attaché : 202011051223_2021 – Stage équivariance Cnam.pdf

Feb
15
Mon
2021
Combiner Apprentissage et Logique pour comprendre les causalités
Feb 15 – Feb 16 all-day

Offre en lien avec l’Action/le Réseau : DOING/– — –

Laboratoire/Entreprise : IRIT
Durée : 6 Mois
Contact : emmanuelle.claeys@irit.fr
Date limite de publication : 2021-02-15

Contexte :
Ce projet est issu d’un programme de recherche ayant pour objectif de proposer une nouvelle méthodologie de suivi de procédés pour la gestion logistique. À partir de données collectées (fichiers log des processus) lors du déroulement de différentes tâches, la méthode doit permettre à l’utilisateur de visualiser son processus et d’en proposer une amélioration limitant la probabilité d’apparition d’un évènement considéré comme critique et défini en amont par l’utilisateur.
Un exemple d’application serait une entreprise (ou une administration) qui souhaiterait mieux connaître les différents parcours que peuvent réaliser ses clients, afin de pouvoir agir sur son organisation dans le but de limiter le risque de saturation d’un de ses services. Cette étude aurait en entrée la séquence d’actions des différents agents (sous forme de log). Cette simple connaissance fournie en entrée devrait être suffisante pour obtenir les sorties attendues : à savoir la probabilité de saturation des services et les actions à mener pour diminuer cette probabilité.

Sujet :
L’objectif de ce stage est de faire un état de l’art sur les méthodes d’amélioration de processus. En effet, si une intervention dans le processus existant doit être proposée (doubler l’effectif d’un service, intervertir deux étapes, elle devra tenir compte des conséquences sur l’ensemble du processus (par exemple doubler l’effectif d’un service ne doit pas saturer le service suivant). Le candidat devra étudier les méthodes de représentation et de simulation de la causalité utilisant les nouvelles techniques de machine learning. En parallèle, il devra intégrer les méthodes de représentation plus explicites (sous forme logique) des lois causales comme l’extrapolation de croyances qui consiste à expliquer des scénarios donnés par les événements qui ont pu survenir à différents instants ou les algorithmes GDA (goal driven algorithms) basés sur le calcul des écarts entre la situation courante et la situation attendue afin de mettre à jour les buts de l’agent. L’étudiant.e s’appuiera pour cela sur les outils disponibles au laboratoire (COSMOS, Package R ) pour l’étude causale dans un processus et sur les outils décrits dans les références ci-dessous.

Les tâches à réaliser seront :

– Une étude bibliographique ;
– La sélection et le pré-traitement des données (log);
– La représentation logique et numérique du processus générique ;
– La résolution: proposition d’un processus amélioré à partir des données existantes ;
– L’étude d’impact suite au changement proposé, l’interprétation et la comparaison des résultats.
– La génération d’explications causales.

Ce stage sera encadré par Emmanuelle Claeys (emmanuelle.claeys@irit.fr) et Florence Bannay (florence.bannay@irit.fr) au laboratoire IRIT dans l’équipe ADRIA.

Profil du candidat :
Autonome en programmation (de préférence R ou Python), connaissances en logique et probabilités, intérêt pour le machine learning.

Formation et compétences requises :
Master 2 (informatique ou statistique) ou équivalent.

Adresse d’emploi :
IRIT Cours Rose Dieng-Kuntz, 31400 Toulouse

Deep Learning Frameworks for Generative Models of 4D Human
Feb 15 – Feb 16 all-day

Offre en lien avec l’Action/le Réseau : DOING/– — –

Laboratoire/Entreprise : ICube
Durée : 6 mois
Contact : seo@unistra.fr
Date limite de publication : 2021-02-15

Contexte :
Recently, there is a huge interest in applying deep learning techniques for synthesizing novel data from the learned model. It is true also for the human shape and motion data, for which several deep learning approaches have been proposed. Examples include a feedforward neural network that maps high level control parameters to the low level human motion over a manifold space found by a convolutional autoencoder, CNN-based architecture combined with deep correlated 2D features for full shape recovery from image silhouettes, auto-conditioned recurrent neural networks to synthesize arbitrary motions with highly complex styles, RNNs (recurrent neural networks) trained for time-series prediction on shape and pose change during animation, Phase-Functioned neural network which takes the geometry of the scene into account to produce character motion along a user-defined path, networks that can produce a distribution of next-state predictions in the context of character motion generation, among others.
In this internship, we will focus on generative models of new types of data, 4D human, i.e. 3D human shape data under motions. The challenging problem of high spatiotemporal dimension of data, physical/environmental constraints, and user-defined controls will be addressed, along with the architectures of deep neural networks that can handle long sequences without an accumulation of errors.

Sujet :
The objective of this internship is to develop deep-learning frameworks for the generation of realistic and controllable 4D human models. Given the user-controllable goal (task, style, constraints, etc), the trained network should be able to generate the desired model in real-time. There are several ways to approach the problem, depending on the representation of dataset, the choice of the network architecture, and the types of goals and the way they are specified/controlled by the user. As for the network architecture, we will focus on the combinations of RNN and variational autoencoder, allowing a stochastic prediction of shape- and pose-sequences in a latent space. Several preprocessing of datasets from different sources may be required, in order to homogenize them into a uniform representation for the training. Different data representations and network hyperparameters will be experimented, to obtain the best results. Evaluation and comparison of the performance to the state-of-the-art methods is strongly recommended, whenever applicable.

Profil du candidat :
— Master student in Computer Science or in (Applied) Mathematics
— Solid programming skills in deep learning platforms: Tensorflow/Pytorch
— Background in geometric modeling and statistics
— Good communication skills

Formation et compétences requises :
Image processing, Introduction to deep learning, Computer vision, Linear algebra, Statistics

Adresse d’emploi :
ICube UMR 7357 – Laboratoire des sciences de l’ingénieur, de l’informatique et de l’imagerie
300 bd Sébastien Brant – CS 10413 – F-67412 Illkirch

Document attaché : 202012142143_sujetM2_GenerativeModels.pdf

Définition de tableau de bord pour la régulation individuelle et collective de l’activité pédagogiqu
Feb 15 – Feb 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Institut Gaspard Monge, Université Gustave Eiffel
Durée : 5/6 mois
Contact : olivier.champalle@u-pem.fr
Date limite de publication : 2021-02-15

Contexte :
Cette mission prend place dans un projet de plateforme numérique d’apprentissage utilisée en complément de cours en présentiel/distanciel. Dans ce cadre, le travail attendu est lié à la réflexion et la conception de POC de tableau de bord et d’indicateur de suivi et d’analyse d’activité (learning analytics) basée sur les traces numériques des étudiants.
PLaTon (Platform for Learning and Teaching Online) est une plateforme d’exercices auto-corrigés, conçue à l’Institut Gaspard Monge de l’Université Gustave Eiffel depuis 5 ans (naissance en 2015). Initialement dédiée à l’exécution en mode protégé de code d’étudiants, le projet c’est progressivement transformé en une plateforme web permettant la conception, le partage et la réutilisation d’exercices multi-disciplines (chimie, langues, mathématiques, programmation,…), à énoncé aléatoire favorisant l’entraînement des étudiants et limitant la « fausse » réussite.
Ces exercices sont capitalisables, réutilisables et modifiables par d’autres enseignants pour construire d’autres formations. Une communauté d’enseignant concepteur et ré-utilisateur d’exercice c’est construite depuis quelques années autour du projet PLaTon et contribue à son amélioration et sa croissance.
Depuis 2019, PLaTon est utilisée très régulièrement en renfort de plusieurs enseignements au sein de l’université Gustave Eiffel et Paris Sud, à hauteur de 2800-3000 connexions/logs quotidiens, sur des cours variés : Initiation Python, programmation C avancée, Programmation impérative, Design Patterns, Suites et fonctions, Algèbre linéaire, … .
PLaTon est principalement utilisée en « libre service », ce n’est pas une activité obligatoire mais fortement conseillée. Dernièrement des activités d’examens ont été déployées.

Sujet :
Le suivi et la régulation de l’activité sur PL en est à ses balbutiements tant sur le suivi individuel réflexif de l’activité que sur l’évaluation des exercices proposés, de la régulation des cours et plus globalement de l’impact de PLaTon sur la progression des élèves.
Le contenu précis de la mission sera ajusté au profil du candidat retenu, mais les objectifs sont resserrés sur la proposition/formalisation et conception de POC de tableaux de bord permettant par exemple :
• Pour les élèves :
o de mesurer leur progression en termes d’exercices déjà fait et restant à faire;
o en terme de tentative maximale, moyenne et minimale par exercice, …. ;
o de visualiser les compétences maîtrisées et restant à maîtriser. (Il sera possible d’exploiter les tags des exercices) ;
o…
• Pour les enseignants :
o mesurer la difficulté des exercices proposés et par-de là leur intérêt et/ou leur bonne ou mauvaise conception
o posséder une vue globale et élève par élève des résultats en particulier le « taux » de présence sur la plateforme
o détecter les comportements de type « gaming » : on clique avant de chercher à comprendre
o vérifier les «copies» de réponses: quels sont les comportements de type je récupère la réponse d’un autre ?
o identifier des clusters de trajectoires, …

Profil du candidat :
La personne intéressée sera en M2 ou dernière année d’école d’ingénieur. Elle aura naturellement une très forte appétence pour l’informatique ainsi que la programmation et aura des bases en analyse de traces numériques avec la technologie associée (Python, Pandas, Json, RDF,…). Elle ne sera pas pour autant un « codeur/codeuse ». Il est attendue une réelle réflexion sur les aspects pédagogie via le numérique et sur les moyens de piloter, d’analyser cette pédagogie via des indicateurs et des tableaux de bords.
Les propositions d’indicateurs, de POC etc. s’appuieront sur la littérature scientifique du domaine de recherche et sur la veille technologique. S’agissant aussi d’un travail de recherche, les résultats pourront conduire à réalisation d’une publication.

Formation et compétences requises :
M2 informatique de préférence recherche ou dernière année d’école d’ingénieur en informatique.
Des connaissances en analyses et visualisation de données ainsi que les technos associées

Adresse d’emploi :
La mission se déroulera dans les locaux de l’Institut Gaspard Monge de l’Université Gustave Eiffel. La personne sera régulièrement en contact avec les développeurs de l’application Platon et de l’équipe projet, elle/il participera aux réunions de pilotage et interviendra naturellement sur la partie analyse.
Institut Gaspard Monge, Université Gustave Eiffel, 5 bd Descartes, Cité Descartes, Champs-sur-Marne 77454 Marne-la-Vallée CEDEX 2

Document attaché : 202101140837_Proposition_StageM2_PLaTon.pdf

Detection of exoplanets and disks in direct imaging with VLT/SPHERE using large libraries of images
Feb 15 – Feb 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Institut de planétologie et d’Astrophysique de Gr
Durée : 4-6 months
Contact : julien.milli@univ-grenoble-alpes.fr
Date limite de publication : 2021-02-15

Contexte :
The VLT/SPHERE high-contrast imager is one of the most powerful instruments for the detection of exoplanets and discs by direct imaging, combining extreme adaptive optics and coronagraphy. The main challenge in data processing consists in estimating and then subtracting as much as possible the light from the central star that has not been entirely blocked by the coronagraph, to reveal in the circumstellar environment the potential signature of exoplanets in orbit around the star, or dust rings leftover from the planetary system formation. Currently, the most efficient techniques are based on angular diversity, which allows to estimate stellar residuals empirically from a temporal sequence of images of the target star where the telescope pupil is fixed and objects in the sky rotate. The main difficulty of this approach is to properly separate the stellar residuals from the astrophysical signal of planets or disks during estimation. This is especially true for extended signals from discs, making this technique almost blind to discs seen under a pole-on configuration.
An alternative technique is to use a library of images of other stars to estimate the stellar residuals. Thanks to recent developments in algorithms and advances in computing capacity, this technique is now attracting great interest in ground-based instruments fed by extreme adaptive optics, such as VLT/SPHERE, which compensate for the atmospheric turbulence.

Sujet :
The aim of the internship is to improve the image processing of the VLT/SPHERE instrument with the help of image libraries. In particular, the study will focus on the impact of the size of the library on the performance. This will be done using a dataset of 26 target stars, allowing the performance to be characterised for an average library size of about 4000 images. This will be compared with the results obtained by compiling a library one hundred times larger, using the architecture of the SPHERE Data Center in Grenoble. Particular interest will be paid to the performance of extended signals detection, such as discs, which is one of the major interests of this technique.

This study is part of and funded by the ERC project COBREX, which brings together researchers from the Laboratoire d’Etudes Spatiales et d’Instrumentation en Astrophysique (LESIA, at the Paris Observatory), the Institut de Planétologie et d’Astrophysique de Grenoble (IPAG) where the internship will take place, and the Centre de Recherche Astrophysique de Lyon (CRAL).

Profil du candidat :
The candidate should have skills either in the following areas: signal and image processing, machine learning, optics

Formation et compétences requises :
The candidate can have a background either in applied mathematics/ data science or in astrophysics / instrumentation for astrophysics

Adresse d’emploi :
Institut de Planetologie et d’Astrophysique de Grenoble (IPAG)
414, rue de la Piscine
Domaine Universitaire Saint-Martin-d’Hères
BP 53
38041 Grenoble cedex 9
France

Exoplanets in transition disks. A novel use of the diversity at medium spectal resolving powers.
Feb 15 – Feb 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire d’Etudes Spatiales et d’Instrumentatio
Durée : 3 à 6 mois (négociab
Contact : anne-marie.lagrange@obspm.fr
Date limite de publication : 2021-02-15

Contexte :
Recent studies have demonstrated that coupling high contrast imaging with medium or high resolution spectroscopy leads to a significant improvement in the detection capability of exoplanets, in particular young ones, and to constrain their physical and chemical properties (Hoejmakers et al, 2018, https://arxiv.org/pdf/1802.09721.pdf). This technique, called Molecule Mapping exploits the diversity contained in the data and could on the long term allow to detect and characterize Earth twins around other stars.

Sujet :
The Internship will be devoted to the analysis of a sample of young stars surrounded by transition disks, using data collected at the with the spectro-imager SINFONI mounted on the ESO Very Large Telescope (Chili). These stars, aged a few million years are surrounded by dust disks called transition disks that have been resolved by high contrast imagers at the VLT and/or by the ALMA radio interferometer. An example is PDS70 (Keppler et al, 2018, https://arxiv.org/abs/1806.11568), in which two planets have been detected in the central cavity of a dust transition disk.

The intern will use existing algorithms developed in Grenoble and Paris to analyse the data. if necessary, (s)he will further develop these algorithms. (S)he will interpret the results obtained for each individual system.

The intern will be supervised by Anne-Marie LAGRANGE and Anthony BOCCALETTI at LESIA (Paris) and remotely by Mickaël BONNEFOY at IPAG (Grenoble).

S)he will be a member of the ERC COBREX, collaborating with researchers from the Laboratoire d’Etudes Spatiales et d’Instrumentation en Astrophysique (Obs. de Paris), the Institut de Planétologie et d’Astrophysique de Grenoble (IPAG) and the Centre de Recherche Astrophysique de Lyon (CRAL).

Profil du candidat :
The intern should demonstrate her/his ability to work in Python and have solid grounds in signal processing.

Formation et compétences requises :
Excellent knowledge of Python and the following libraries (numpy, scipy, pandas, scikit-learn).

Adresse d’emploi :
LESIA
Observatoire de Paris, Section de Meudon
5, place Jules Janssen
92195 MEUDON Cedex

Improving the detection capability of forming exoplanets in hyperspectral data with inverse problem
Feb 15 – Feb 16 all-day

Offre en lien avec l’Action/le Réseau : BigData4Astro/– — –

Laboratoire/Entreprise : Institut de Planétologie et d’Astrophysique de Gr
Durée : 3 à 5 mois
Contact : mickael.bonnefoy@univ-grenoble-alpes.fr
Date limite de publication : 2021-02-15

Contexte :
Exoplanets are planets orbiting other stars than the Sun. Since their luminosity is orders of magnitude smaller than their host star, finding them and characterizing their properties is extremely challenging and necessitate very careful data analysis and data calibration. For years, astronomers have been using empirical calibrations to improve data quality, but recent publications led by data scientists have shown that an inverse problem approach with minimal empirical information can improve the data reduction, especially on 3D hyperspectral data produced by integrated field spectrographs, where each pixel of an image has an associated spectroscopic information. The approach does remove very efficiently systematic errors from the early data reductions steps, thus improving the full reduction chain. These improvements are key to allow the most advanced data algorithms to reveal their full potential, enabling reliable analysis of the spectroscopic signatures of exoplanets.
The latest and upcoming generation of integral field spectrographs such as MUSE, SINFONI and soon ERIS on the Very-Large Telescope (ESO, Chile) can disentangle the sparse spectral emission features of forming planets from the dominant stellar halo and promise to boost exoplanet detection capabilities [1]. In that context, the implementation of inverse problem approach on these data appear as a key step for lowering the false positive detection of these spectral features and for providing reliable information on the detected objects.

Sujet :
The intern will start from an existing algorithm based on the inverse approach (PIC) and presently applied to low resolution integrated field spectrographs [2]. She/He will adapt it to the case of the higher resolution integral field spectrographs mentioned above. The supervisors will provide benchmark datasets – some including real exoplanets – reduced with the “traditional” empirical approach (already implemented) to estimate advantages and drawbacks of each approach. This internship offers to develop these approaches on such data for the first time and we therefore expect the work to identify the main leverage points in the method.
The internship will last from 3 to 5 months (to be discussed with the applicant). The work is intended to be introductory of a PhD thesis (funding secured) at the fringe between data science and astrophysics that will be opened in the fall of 2021.

[1] Original use of MUSE’s laser tomography adaptive optics to directly image young accreting exoplanets. Girard et al. 2020. https://arxiv.org/pdf/2003.02145.pdf

[2] PIC: a data reduction algorithm for integral field spectrographs Application to the SPHERE instrument. Berdeu et al. 2020. https://www.aanda.org/articles/aa/abs/2020/03/aa36890-19/aa36890-19.html

Profil du candidat :
We are looking for a master 2 student (of equivalent) with a strong background in signal processing and interests in astrophysics. The student will be part of a vibrant team of researchers from the Institut de Planétologie et d’Astrophysique de Grenoble and is expected to interact with data scientists from the CRAL (Lyon) laboratory.

Formation et compétences requises :
master 2 or equivalent in data science and/or applied mathematics
enthusiasm to deal with open questions
excellent programming skills (>2 years experience in Python)
ability for team work

Adresse d’emploi :
IPAG 414 rue de la piscine campus universitaire de Grenoble
https://ipag.osug.fr/

Document attaché : 202101140910_StageM2_PICS.pdf