Présentation Générale

 



           
Huitième édition du Symposium MaDICS

Ce rendez-vous annuel rassemble la communauté MaDICS afin de mettre en lumière les avancées récentes en sciences des données, à travers un programme scientifique riche comprenant des conférences invitées (keynotes), des ateliers thématiques, des tables rondes et des sessions de posters.
Ces temps forts favorisent des échanges scientifiques à la fois stimulants et conviviaux.

Une Session Poster sera spécialement consacrée aux jeunes chercheuses et jeunes chercheurs souhaitant présenter leurs travaux en analyse et gestion de données et dans les domaines interdisciplinaires autour de la Science des Données. Cette session sera également l’occasion d’échanger avec des collègues académiques et des acteurs industriels sur les thématiques de recherche présentées.

Dates importantes :

  • Soumission de posters : au plus tard le 23 mars 2026
  • Retour : 9 avril 2026
  • Symposium : les 2 et 3 juin 2026 à Avignon

Nous vous invitons d’ores et déjà à réserver ces dates dans votre agenda

Pour en savoir plus…

MaDICS est un Groupement de Recherche (GDR) du CNRS créé en 2015. Il propose un écosystème pour promouvoir et animer des activités de recherche interdisciplinaires en Sciences des Données. Il est un forum d’échanges et d’accompagnement pour les acteurs scientifiques et non-scientifiques (industriels, médiatiques, culturels,…) confrontés aux problèmes du Big Data et des Sciences des données.
Pour en savoir plus…


Les activités de MaDICS sont structurées à travers des Actions et Ateliers. Les Actions rassemblent les acteurs d’une thématique précise pendant une durée limitée (entre deux et quatre ans). La création d’une Action est précédée par un ou plusieurs Ateliers qui permettent de consolider les thématiques et les objectifs de l’action à venir.


Le site de MaDICS propose plusieurs outils de support et de communication ouverts à la communauté concernée par les Sciences des Données:

  • Manifestations MaDICS : Le GDR MaDICS labellise des Manifestations comme des conférences, workshops ou écoles d’été. Toute demande de labellisation est évaluée par le Comité de Direction du GDR. Une labellisation rend possible un soutien financier pour les jeunes chercheuses et chercheurs. Une labellisation peut aussi être accompagnée d’une demande de soutien financier pour des missions d’intervenants ou de participants à la manifestation.
    Pour en savoir plus…
  • Réseaux MaDICS : pour mieux cibler les activités d’animation de la recherche liées à la formation et à l’innovation, le GDR MaDICS a mis en place un Réseau Formation destiné à divers publics (jeunes chercheurs, formation continue,…), un Réseau Innovation pour faciliter et intensifier la diffusion des recherches en Big Data, Sciences des Données aux acteurs industriels et un Club de Partenaires qui soutiennent et participent aux activités du GDR.
    Pour en savoir plus…
  • Espace des Doctorants : Les doctorants et les jeunes chercheurs représentent un moteur essentiel de la recherche et le GDR propose des aides à la mobilité et pour la participation à des manifestations MaDICS.
    Pour en savoir plus…
  • Outils de communication : Le site MaDICS permet de diffuser des informations diverses (évènements, offres d’emplois, proposition de thèses, …) liées aux thématiques de recherche du GDR. Ces informations sont envoyées à tous les abonnés de la liste de diffusion MaDICS et publiés dans un Calendrier public (évènements) et une page d’offres d’emplois.

Adhésion au GDR MaDICS : L’adhésion au GDR MaDICS est gratuite pour les membres des laboratoires ou des établissements de recherche publics. Les autres personnes peuvent adhérer au nom de l’entreprise ou à titre individuel en payant une cotisation annuelle.
Pour en savoir plus…


Manifestations à venir

Journées Ecoles Conférences et Séminaires

Actions, Ateliers et Groupes de Travail :

CODA DAE DatAstro DSChem EXMIA GINO GRASP RECAST SaD-2HN SIMDAC SimpleText TIDS  


Dec
31
Tue
2019
Can Deep Learning reveal Ito drift processes in upper ocean dynamics?
Dec 31 2019 – Jan 1 2020 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Lab-STICC/IMT Atlantique
Durée : 6 mois
Contact : ronan.fablet@imt-atlantique.fr
Date limite de publication : 31-12-2019

Contexte :
The understanding and evaluation of the impacts of fine-scale random processes onto larger-scale processes is in a key challenge in in physical oceanography. Ito-Wentzell formula provides the basic background to investigate these issues from a theoretical and computational point of view.

This internship is proposed in the framework of ANR Melody (Bridging geophysics and MachinE Learning for the modeling, simulation and reconstruction of Ocean DYnamics, PI: R. Fablet) and ERC STUOD (Stochastic Transport in Upper Ocean Dynamics, PI: B. Chapron).

Sujet :
The goal of this internship will be to investigate how neural ODE schemes could help revealing and understanding from data large-scale drift and diffusion processes caused by fine-scale processes in the upper ocean. For different case-studies, experiments will be performed on numerical simulations (e.g., toy models, reduced ocean models, HR ocean simulations). Experiments on real observation datasets would also be of interest in a second step.

Profil du candidat :
Msc./Eng. degree in Applied Math., Data Science and/or Physical Oceanography with a good background in applied statistics.

Formation et compétences requises :
Good scientific programming skills (eg, Python)
First experience and/or knowledge on deep learning models and frameworks would be a plus.

Adresse d’emploi :
Lab-STICC, IMT Atlantique, Technopôle Brest-Iroise
29238 Brest cedex

Document attaché : internship_proposal_ItoOcean2019.pdf

Estimation par satellite et drone des rendements céréaliers à l’échelle des paysages dans un système agro-forestier sénégalais
Dec 31 2019 – Jan 1 2020 all-day

Annonce en lien avec l’Action/le Réseau : Formation

Laboratoire/Entreprise : Cirad / Centre de Suivi Ecologique
Durée : 6 mois
Contact : louise.leroux@cirad.fr
Date limite de publication : 2019-12-31

Contexte :
L’arbre fait partie intégrante des systèmes de production en petite agriculture familiale africaine et est considérée comme l’un des leviers d’amélioration de la sécurité alimentaire et des moyens de subsistance des populations tout en améliorant leur résilience face aux changements à venir (Garrity et al., 2010; Mbow et al., 2014). Ces parcs agroforestiers sont par conséquent une des voies de l’intensification durable de l’agriculture africaine. Des méthodes de suivi des performances agronomiques des parcs africains est donc nécessaire optimiser les pratiques des agriculteurs. Avec la démocratisation de l’imagerie satellitaire à haute résolution spatio-temporelle (Sentinel-2, Venus ou PlanetScope), l’estimation des rendements des cultures céréalières en paysage agricole complexe est aujourd’hui possible. Récemment, Leroux et al. (2019) ont montré que l’intégration d’information sur la structuration du parc arboré dans un modèle statistique d’estimation des rendements du mil par télédétection permettait d’améliorer l’évaluation des performances agronomiques du parc à Faidherbia albida au Sénégal. Ce type d’approche basée sur des rendements observés agrégés à la parcelle, ne permet cependant pas de prendre en compte la variabilité intra-parcellaire des rendements dues aux micro-variabilités environnementales, aux pratiques des agriculteurs ou encore à la présence des arbres. Les drones se présentent eux comme une alternative tangible pour le suivi des cultures et de leur variabilité intra-parcellaire en petite agriculture familiale (Blaes et al., 2016 ; Roupsard et al., 2019). Ils peuvent également être utilisés pour étendre les données observées sur un nombre limité de parcelles à une région plus vaste.

Sujet :
L’objectif de ce stage est d’étudier les complémentarités entre des images de télédétection à haute résolution spatio-temporelle et des images de drones pour estimer la variabilité spatiale des rendements dans le parc à Faidherbia albida du bassin arachidier sénégalais. Porté par l’UR AÏDA (L.Leroux), l’UMR Eco&Sol (O.Roupsard) et l’UR AGAP (A.Audebert) du Cirad, il s’inscrit dans le cadre du projet UE-RAMSES2 (https://josianeseghieri.wixsite.com/ramsesii).
Le/la stagiaire travaillera à partir d’un jeu d’images de télédétection/proxydétection acquises en 2018- 2019. Les principales étapes du stage sont (1) pré-traitements des images satellites et drones (extraction d’indices spectraux, texturaux …) ; (2) tester différentes indices spectraux et/ou texturaux pour estimer les rendements du mil pour un ensemble de parcelles à partir de l’imagerie drone et d’une modélisation statistique, (3) à partir d’une carte d’occupation du sol précédemment produite sur la zone (Ndao et al., 2019), étendre ces estimations en établissant une relation drone/satellite permettant d’intégrer la variabilité intra-parcellaire dans les estimations à l’échelle du paysage. Pour ce faire, des méthodes de fouilles de données et de géostatistiques seront mobilisées pour exploiter les complémentarités entre les différentes sources d’informations. Les résultats de ce stage permettront de contribuer au volet d’évaluation spatialisée des services écosystémiques rendus par les arbres du projet RAMSES2 et l’approche proposée sera validée sur d’autres types de parcs agroforestiers.

Profil du candidat :
Le profil de l’étudiant correspond préférentiellement aux masters 2 de la Graduate School de #DigitAg, mais toute autre formation similaire reste possible.

Formation et compétences requises :
Master en informatique, sciences géographiques, agronomiques, avec des notions en télédétection optique et des bases solides en programmation informatique et en statistiques. Une maîtrise outils libres en traitement d’images et statistiques (QGIS, R, Python) serait un plus.

Adresse d’emploi :
Centre de Suivi Ecologique de Dakar (Sénégal)

Document attaché : Stage_Drone_Teledetection_DigitAg_2020_2.pdf

Internship: Learning multimodal invertible representations from ocean remote sensing data
Dec 31 2019 – Jan 1 2020 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : IMT atlantique, Lab-STICC
Durée : 6 mois
Contact : ronan.fablet@imt-atlantique.fr
Date limite de publication : 2019-12-31

Contexte :
Invertible neural networks (INN) have recently involved a significant research interest. Such representations jointly embed the prediction of the outputs given the inputs as well as the inputs given the outputs. This property is particularly apealing when dealing with inverse problems, i.e. aiming to reconstruct some hidden processes from some observed variables.

In the context of the space-based remote sensing of the oceans, a variety of satellite missions provide observations of sea surface parameters (e.g., temperature, salinity, current). We may now benefit from such large-scale observation datasets to explore, characterize and model upper ocean dynamics. In this respect, theoretical evidence has been provided that sea surface tracers may exhibit relationships, which relate to specific dynamical regimes.

This internship is proposed in the framework of ANR Melody (Bridging geophysics and MachinE Learning for the modeling, simulation and reconstruction of Ocean DYnamics, PI: R. Fablet) and ERC STUOD (Stochastic Transport in Upper Ocean Dynamics, PI: B. Chapron).

Sujet :
In the spirit of our previous work, the goal of this internship will be to explore ocean remote sensing datasets using deep learning strategies to reveal new data-driven representations of upper ocean dynamics. The focus will be given to INN representations.

Profil du candidat :
Msc./Eng. degree in Applied Math., Data Science and/or Physical Oceanography.

Formation et compétences requises :
Good background in data science an applied statistics. Knowledge on deep learning models and experience in deep learning frameowrks (eg, tensorflow, keras, pytorch) would be a plus.

Adresse d’emploi :
IMT Atlantique, technopôle Brest-Iroise, Brest

Document attaché : internship_proposal_MultimodalRepresentation.pdf

Stage M2 Identification automatique de diatomées par apprentissage profond
Dec 31 2019 – Jan 1 2020 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : LIEC
Durée : 6 mois
Contact : martin.laviale@univ-lorraine.fr
Date limite de publication : 20191231

Contexte :
Les diatomées sont des microalgues omniprésentes dans tous les milieux aquatiques. En particulier, elles jouent un rôle essentiel dans les écosystèmes d’eau douce, notamment sous forme de biofilms. Leur grande diversité et leur ubiquité font de ces organismes des bioindicateurs reconnus dans le cadre du suivi de l’état écologique des cours d’eau. Les diatomées sont des organismes unicellulaires qui présentent un exosquelette en silice dont la forme et l’ornementation constituent les bases de l’identification taxonomique traditionnelle. Néanmoins l’identification de ces traits morphologiques est chronophage, souvent sujette à de multiples biais (expérience de l’opérateur, qualité de l’image) et nécessite un niveau élevé d’expertise. Le développement récent des approches d’apprentissage profond par réseaux de neurones pour identifier et quantifier les traits des organismes à partir d’images semble prometteur pour résoudre les problèmes rencontrés jusqu’à présent.
Dans ce contexte, l’objectif du stage proposé vise à développer un outil d’identification des diatomées basé sur des algorithmes de reconnaissance automatique de formes à partir d’images individuelles. Dans un premier temps, cet outil devrait permettre d’améliorer les outils disponibles pour le diagnostic écologique des milieux aquatiques basés sur les diatomées. In fine, l’objectif est de pouvoir utiliser cet outil comme indicateur précoce pour détecter l’apparition de formes rares (espèces exotiques potentiellement invasives, déformations des cellules sous l’effet de polluants).

Sujet :
Objectifs du stage :
1- Constituer une première banque d’images individuelles de diatomées, représentative de la variabilité morphologique observée chez différentes espèces bioindicatrices. Séjour prévu au CEREGE pour acquérir de manière automatique un grand nombre d’images en pseudo-3D (z-stalks) (plateforme d’imagerie “Micropaléontologie automatisée”).
2- Développer un algorithme de segmentations puis un algorithme de reconnaissance des images. Les images individuelles générées en étape 1 seront utilisées pour entrainer un réseau de neurones et lui apprendre à reconnaitre les différentes espèces de diatomées présentes dans un échantillon (lames permanentes). Le traitement d’image sera réalisé par une approche standard (réseaux de neurones de types Yolo v3 pour la détection d’instances ou de type SegNet, U-Net, DeepLab… pour la segmentation des individus). L’utilisation d’images 3D créera des structures de données plus riches, permettant de travailler sur l’extension des réseaux ci-dessus à des données 3D, ce qui a été peu traité dans la littérature.
3- Appliquer le réseau de neurones à des échantillons complexes (i.e. échantillons naturels).
Le travail pourra être poursuivi en thèse, sur une sujet co-construit avec l’étudiant(e).

Le stage de M2 se déroulera au LIEC à Metz. Il sera co-encadré par Martin Laviale et Philippe Usseglio-Polaterra (écologie des diatomées, bioindication). Il sera réalisé en étroite collaboration avec Cédric Pradalier (Georgia Tech Lorraine, apprentissage profond), Thibault de Garidel-Thoron (CEREGE, imagerie) et Sakina-Dorothée Ayata (Sorbonne Université, approche par traits, écologie). Il bénéficiera également du réseau international ARTIFACTZ (https://sites.google.com/view/artifacz/).

Profil du candidat :
Etudiant(e) Ecole d’ingénieur ou M2 en maths appliquées, idéalement à l’interface entre vision, apprentissage, et biologie et/ou écologie.

Formation et compétences requises :
– Solides bases en mathématiques appliqués et statistiques.
– Connaissances générales en statistiques et/ou imagerie et/ou machines learning.
– Idéalement : compétences pour l’acquisition, la gestion et l’analyses de données et d’images biologiques.
– Des connaissances pour la classification/régression par réseaux de neurones convolutionnels seraient un plus.
– Formation de base ou intérêt pour la biologie et/ou écologie.
– Un manque d’expérience dans un des domaines ci-dessus pourra être compensé par une forte motivation.

Adresse d’emploi :
Laboratoire Interdisciplinaire des Environnements Continentaux (LIEC), Université de Lorraine, Campus Bridoux, Metz.

Document attaché :

Jan
1
Wed
2020
Intelligence artificielle et fusion de données pour la perception des véhicules autonomes
Jan 1 – Jan 2 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : UHA/IRIMAS EA 7499, Mulhouse, France
Durée : 6 mois (février-aout 2020)
Contact : maxime.devanne@uha.fr
Date limite de publication : 2020-01-01

Contexte :
Le stage proposé s’inscrit dans le contexte actuel des véhicules autonomes. De nos jours, la perception de l’environnement autour du véhicule représente encore un verrou scientifique. Cette information est primordiale pour la planification de la trajectoire à suivre, et une erreur peut très vite coûter des vies. La perception de l’environnement peut se décomposer en deux tâches hiérarchiques : la détection des zones d’intérêt et l’analyse de la scène perçue. Ce stage se focalise sur l’analyse et l’interprétation de la scène. Une fois les zones d’intérêt détectées, il s’agira de définir les potentiels obstacles ainsi que la nature de ces derniers (notamment leur caractère mobile ou non) et leurs caractéristiques (taille, vitesse…).
Dans la littérature, ce problème a été adressé par des approches basées modèle comme la fusion de données grâce, notamment, à la théorie évidentielle (Dempster-Shafer et extensions). Les fonctions de croyance permettent ainsi d’obtenir un algorithme d’analyse de la scène précis. Cependant, cette méthode repose en grande partie sur les connaissances a priori des modèles. D’autre part, avec l’augmentation des puissances de calcul, les approches basées données comme les réseaux de neurones et l’apprentissage profond permettent avec des données d’apprentissage, de concevoir un algorithme robuste et réactif à une grande variété de situations, mais dont la fiabilité dépend de statistiques.
L’objectif de ce stage est de développer un formalisme théorique permettant de combiner les deux approches (fusion de données évidentielle et apprentissage profond). Il s’agira de concevoir un système d’analyse de la scène perçue s’appuyant sur des réseaux de neurones enrichis de fonctions de croyance.

Sujet :
Le/la stagiaire aura pour objectifs, dans un premier temps, de faire un état de l’art sur les différentes solutions existantes dans les deux disciplines : concernant les techniques de fusion de données, il/elle se focalisera sur la théorie évidentielle. Concernant le côté Intelligence artificielle, le/la stagiaire explorera les différents algorithmes existants des réseaux de neurones convolutifs (par exemple R- CNN). Ensuite, grâce à cette connaissance des deux domaines, le/la stagiaire pourra proposer une méthode originale pour les combiner comme initié dans les travaux de Denoeux.
Cette partie théorique s’accompagnera de simulations sur la base de données KITTI (http://www.cvlibs.net/datasets/kitti/) pour valider le nouvel algorithme d’analyse de la scène combinant fusion de données et apprentissage profond. Si les résultats le permettent, la solution proposée pourra être implémentée dans le calculateur du prototype de véhicule autonome de l’IRIMAS (travail réalisé par un autre stagiaire). L’ensemble des travaux de recherche réalisé par le/la stagiaire donnera lieu à des publications scientifiques pour des conférences internationales et/ou des journaux à facteur d’impact.

Profil du candidat :
Le/la candidat(e) aura le profil suivant : inscrit en Master 2/diplôme d’ingénieur en automatique, traitement du signal ou informatique.

Formation et compétences requises :
Notions de fusion de données appréciées. Des compétences en développement sous Matlab et C++ seront déterminantes. Des connaissances en Deep Learning (NN, CNN…) et les outils associés (TensorFlow…) seraient un plus.

Adresse d’emploi :
L’intégralité du stage se déroulera à IRIMAS, au sein du Département ASI (Automatique Signal Image) et plus précisément dans l’équipe MIAM (Modélisation Identification Automatique et Mécanique) de l’Université de Haute Alsace, à Mulhouse (France).

Document attaché : Master_internship_theorie_2020.pdf

Jan
2
Thu
2020
Etude et deploiement des modèles de bruitage d’imagerie satellitaire pour évaluer la robustesse des techniques d’apprentissage profond
Jan 2 – Jan 3 all-day

Annonce en lien avec l’Action/le Réseau : Formation

Laboratoire/Entreprise : UMR TETIS
Durée : 6 mois
Contact : dino.ienco@irstea.fr
Date limite de publication : 2020-01-02

Contexte :
Numalis est une la première entreprise au monde à commercialiser des solutions de preuve de la fiabilité de systèmes d’IA. Nos clients sont les plus grands industriels français du transport (terrestre, aérien, maritime et spatial) et de la Défense. Ensemble nous concevons les processus de validation des IA de demain.
En partenariat avec l’équipe de Numalis composée d’ingénieurs et de chercheurs nous vous proposons de travailler depuis l’IRSTEA sur la conception de modèles réalistes de bruitages de d’images satellites. Ces modèles de bruits pourront être ensuite utilisés par les outils de preuve de fiabilité de réseaux de neurones que conçoit Numalis.
Vous participerez au développement et l’évaluation de nouveaux types de bruits qui serviront de base aux futures techniques de validation de réseaux de neurones pour le domaine spatial.

Sujet :
Intégré à l’UMR TETIS et en lien avec notre équipe technique et notre équipe R&D, vous enrichirez la palette de techniques de tests de réseaux neurones. Plus particulièrement vous modéliserez des méthodes de bruitage d’images satellites qui devront être représentatives de perturbations réelles. Ces méthodes de bruitage seront ensuite implémentées par nos équipes au sein d’un analyseur statique capable de les généraliser afin de servir dans notre outil de preuve formelle. Vous serez amené in fine à utiliser l’outillage ainsi enrichi de Numalis pour faire des tests. Une grande partie du stage sera dédiée à la réalisation de prototypes de modèles de bruits ainsi qu’à leur documentation.

Les missions
• Prise en main des modèles de bruits existants
• Définition et spécification fonctionnelle de nouveaux modèles de bruits
• Si possible, fournitures d’images (sous forme de calques) des modèles bruits conçus
• Évaluation des modèles de bruits sur des cas d’étude à l’aide de l’outillage Numalis

Profil du candidat :
Étudiant(e) en Master à l’IRSTEA, vous êtes autonome, ouvert d’esprit et vous aimez travailler sur des sujets innovants. Vous aimez les environnements de travail dynamiques où vous êtes amenés à travailler en équipe. Curieux, vous avez un fort intérêt pour le domaine de l’IA.
Vous savez réaliser des prototypes et vous êtes sensible aux problématiques de test logiciel.
Vous possédez des compétences solides en imagerie numérique et des notions de programmation dans un ou plusieurs des langages suivants : C/C++/Python, vous maîtrisez le système d’exploitation Linux et vous êtes à l’aise à l’écrit et l’oral en anglais et en français.

Formation et compétences requises :
Étudiant(e) en Master à l’IRSTEA, vous êtes autonome, ouvert d’esprit et vous aimez travailler sur des sujets innovants. Vous aimez les environnements de travail dynamiques où vous êtes amenés à travailler en équipe. Curieux, vous avez un fort intérêt pour le domaine de l’IA.
Vous savez réaliser des prototypes et vous êtes sensible aux problématiques de test logiciel.
Vous possédez des compétences solides en imagerie numérique et des notions de programmation dans un ou plusieurs des langages suivants : C/C++/Python, vous maîtrisez le système d’exploitation Linux et vous êtes à l’aise à l’écrit et l’oral en anglais et en français.

Adresse d’emploi :
500, rue Jean François Breton
34090 Montpellier, FRANCE

Document attaché : Stage-2020-IA_irstea.pdf

Prédiction du niveau de pauvreté par Deep Learning à partir d’une séries temporelle d’images satellitaires
Jan 2 – Jan 3 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : LIRMM
Durée : 6 mois
Contact : dino.ienco@irstea.fr
Date limite de publication : 2020-01-02

Contexte :
Bien souvent en télédétection, on souhaite produire une cartographie géographique, c’est-à-dire produire une carte découpée en zones, où chaque zone est labellisée par une valeur. Cette valeur peut par exemple être le niveau de consommation annuel des ménages, la santé des actifs, etc.
L’approche standard pour produire une cartographie consiste à extraire descaractéristiques / traits / informations pour chaque zone étudiée. Ces caractéristiques / traits / informations sont représentés par un ensemble de valeurs entières, réelles ou binaires. Ces caractéristiques peuvent être le matériau des bâtiments, le matériau des toits, le nombre de pièces d’une maison, le type de maison, les distances entre divers points d’infrastructure, la classification urbaine ou rurale, la température annuelle, les précipitations annuelles, etc. [Xie et al 2016 – Transfer]. Il est bien évident qu’il n’est pas aisé d’avoir accès à de telles informations qui nécessitent de faire des relevés ou des enquêtes sur le terrain.
Une solution moins coûteuse pour faire la cartographie consiste à utiliser des images satellites de haute résolution (le principe de la télédétection consiste à faire de la mesure à distance), et d’extraire des caractéristiques qui pourront alors servir à prédire la valeur de chaque zone de la carte. Par exemple, en 2016, Xie et al. [Xie et al 2016 – Transfer] ont proposé de prédire le niveau de pauvreté (= niveau de consommation annuel des ménages) pour des zones de 1 km x 1 km (voir la figure ci-dessus). Toute la problématique de la cartographie par image satellite est qu’il est nécessaire d’avoir suffisamment d’images labellisées (images + valeurs pour chaque zone) pour pouvoir utiliser des algorithmes d’apprentissage automatique. La publication de Xie et al. a cela d’intéressant qu’elle ne nécessite que très peu d’images labellisées puisqu’elle repose sur une approche en deux étapes :

1. un apprentissage préalable d’un CNN (Convolutional Neural Network) pour prédire l’intensité lumineuse dans des images satellite prises de nuit, et cela, à partir d’images satellite prises de jour,
2. puis une réutilisation de ce réseau CNN (notion de “Transfer Learning”) pour cette fois-ci lui apprendre à prédire la pauvreté (utilisation d’une régression) à partir d’image satellite de jour. En effet, on va supposer que le niveau de pauvreté est inversement corrélé à l’illumination nocturne (plus il y a d’électricité, moins la zone est pauvre).

Sujet :
L’approche de Xie et al. est particulièrement élégante puisqu’elle ne nécessite plus d’interventions sur le terrain pour obtenir des caractéristiques. Elle permet également de faire une prédiction sur des pays entiers comme par exemple l’Afrique (voir les résultats dans [Jean et al. 2016 – PredictPoverty]). Sur leur ensemble de tests, l’approche de Xi et al. obtient 71% de précision, ce qui est meilleur de 3% par rapport aux approches sans transfert, utilisant également du Deep-Learning et elle est seulement 4% inférieure à l’approche reposant sur une utilisation d’un relevé sur le terrain. Dans une publication plus récente,
un vecteur caractéristique discriminant la zone proche de la zone distante. Cet apprentissage est ainsi totalement non supervisé. Dans un deuxième temps, une régression est effectuée pour prédire le niveau de pauvreté à partir du vecteur des caractéristiques de l’imagette en entrée. Les résultats de cette nouvelle proposition donnent une régression dont la corrélation est meilleure que celle obtenue par l’approche par transfert [Xie et al 2016 – Transfer]. Il reste cependant encore une marge de progression puisque la
corrélation après régression n’est que de 70%.
La méthodologie est intéressante, mais comme indiqué par les auteurs [Jean et al. 2019 – Tile2Vec], elle ne prend pas assez en compte l’aspect temporel. Par ailleurs, les données sur lesquelles les expériences ont été effectuées ont été volontairement bruitées par les agences gouvernementales.
L’étudiant devra donc étudier et proposer une solution dans le cas où l’on dispose d’un ensemble d’images satellites prises sur une dizaine d’années, avec une fréquence variable, un échantillonnage à “trous”, une échelle en résolution variable et un faible nombre de données annotées.
Dans un premier temps, l’étudiant devra faire un état de l’art des approches de segmentation (labellisation) d’images satellites, en veillant à étudier plus particulièrement les approches de prédiction utilisant des séquences d’images satellite. En parallèle, l’étudiant reprendra les expériences menées par l’équipe de Jean et al. pour avoir une base de comparaison, mais également pour prendre en main les données dont nous disposons. En fin de stage, l’étudiant pourra comparer l’approche de Jean et al. et son approche basée sur la prédiction par séquence d’images.

http://www.lirmm.fr/~chaumont/download/sujet_M2R_2020_PredictPoverty.pdf

Profil du candidat :
Etudiant en master Informatique, traitement du signal ou équivalent

Formation et compétences requises :
programmation C/C++, Python, Classification, Fouille de données, connaissances en traitement d’images, connaissances de base en Deep Learning, anglais écrit scientifique. Aucune connaissance en télédétection n’est requise.

Adresse d’emploi :
161, Rue Ada, Montpellier (France)

Document attaché :

Jan
5
Sun
2020
Un système de recommandation basé sur l’apprentissage profond et les ontologies
Jan 5 – Jan 6 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : AUF, direction du numérique, CY Cergy Paris Université, site de Gennevilliers, ZAC des Barbanniers, Avenue Marcel Paul, 92230 GENNEVILLIERS, et Laboratoire ETIS, équipe MIDI team, CY Cergy Paris Université, 2 avenue Adolphe-Chauvin BP 222, 95302 Cergy-Pontoise cedex
Durée : 6 mois
Contact : claudia.marinica@ensea.fr
Date limite de publication : 01/05/2020

Contexte :
La bibliothèque numérique de l’espace académique francophone (B-NEUF) développé par l’AUF (1) souhaite identifier, catégoriser et indexer les ressources numériques éducationnelles, scientifiques, culturelles, documentaires publiés dans l’espace francophone (10 000 000 en 2019), (2) propose un atlas international des experts francophones (20 000 en 2019), (3) propose un réseau social pour le travail collaboratif, et (4) fournit une visualisation dynamique des relations inter-entités. Etant donné le grand volume de données disponible (ressources numériques ou experts), il est nécessaire de fournir à l’utilisateur un moyen efficace pour trouver rapidement une ressource qui pourrait l’intéresser.
Les systèmes de recommandation (RS) ont reçu beaucoup d’intérêt dans la littérature, mais les approches proposées traitent à la fois des types de données et de ressources limités. Par exemple, Amazon recommande des produits à un acheteur via les produits commandés en même temps que certains produits qui intéressent l’acheteur. La différence entre ce projet et les approches existantes est la complexité et la diversité des données disponibles dans la B-NEUF de l’AUF, et, de plus, la diversité d’utilisateurs. Ces conclusions nous ont amené des questionnements, parmi lequel comment les différentes données et la diversité des utilisateurs infèrent dans le RS ? En répondant à ces questions, dans ce projet, le principal objectif est de construire un module additionnel au sein du B-NUF comme un système de recommandation afin de suggérer des ressources à l’utilisateur.

Sujet :
Objectifs scientifiques :
Le service B-NEUF regroupe des ressources comme des données complexes : (1) un ensemble de documents distribués sur le réseau dans des formats différents et avec des utilisations diverses : des cours, des tutoriels, des auto-évaluations, des rapports techniques, des publications scientifiques ; (2) un atlas international des experts francophones décrits à travers leur expertise, etc. ; (3) un ensemble de données à partir du réseau social des utilisateurs. De plus, les utilisateurs B-NEUF sont différents avec des intérêts variés : des professeurs/chercheurs qui publient/cherchent des productions pédagogiques/scientifiques, des étudiants qui ont accès à des différentes et nombreuses ressources, les directeurs/présidents d’institut qui peut publier du matériel de promotion et des productions relatifs à son institut, mais aussi qui évaluent l’utilisation de leurs ressources, les institutions gouvernementales qui analysent les échanges.
Dans ce contexte, et étant donné les données complexes disponibles, les objectifs scientifiques sont :
(1) Construire une ontologie représentant les connaissances de l’utilisateur du système. A cette fin, on propose d’extraire les plus signifiants termes à partir de documents l’utilisateur a consulté, de déterminer la catégorie de chaque personne que l’utilisateur a interagit avec, and d’extraire les intérêts de l’utilisateur à partir du réseau social. On peut imaginer d’utiliser des techniques de fouilles d’itemets fréquents afin de construire le profil de l’utilisateur. On peut noter que l’ontologie est différente en fonction de l’utilisateur et différents types d’utilisateur existent dans le système comme vu ci-dessus.
(2) Construire un système de recommandation intégrant une ontologie et utilisant des méthodes d’apprentissage profond. A cette fin, nous devons comprendre comment nous pouvons modéliser le processus d’apprentissage profond afin d’intégrer l’ontologie. A cette fin, nous devons évaluer si un nouveau système de recommandation hybride pourrait être une combinaison d’outils de recommandation basés sur les ontologies et du filtrage collaboratif. De plus, nous devons modéliser le classement des résultats pendant la mise ensemble des deux éléments précédents.

Objectifs du stage :
Le stage s’intéresse aux points suivants :
Tâche 1 : Etat de l’art. Dans cette tâche l’étudiant devrait investiguer les domaines de recherche des systèmes de recommandation, des RS basés sur les ontologies, ou les RS basés sur les techniques d’apprentissage profond.
Tâche 2 : Construire une ontologie. Dans cette tâche, l’étudiant devrait proposer un premier modèle d’une ontologie d’un utilisateur.
Tâche 3 : Construire un Système de Recommandation. Dans cette tâche, l’étudiant devrait proposer un premier modèle de système de recommandation.

Profil du candidat :
Etudiant Master 2 en Sciences de Données avec des connaissances d’apprentissage automatique, systèmes de recommandation, web sémantique.

Formation et compétences requises :
Etudiant Master 2 en Sciences de Données avec des connaissances d’apprentissage automatique, systèmes de recommandation, web sémantique.

Adresse d’emploi :
AUF, direction du numérique, CY Cergy Paris Université, site de Gennevilliers, ZAC des Barbanniers, Avenue Marcel Paul, 92230 GENNEVILLIERS

Document attaché : sujet_stage_eng-fr.pdf

Jan
15
Wed
2020
Appel à propositions de stages de L3 ENS Lyon et Paris
Jan 15 – Jan 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ENS
Durée : 8 semaines
Contact : aurelien.garivier@ens-lyon.fr
Date limite de publication : 2020-01-15

Contexte :
Les départements d’informatique des Écoles normales supérieures de Lyon
et de Paris sont à la recherche de propositions de stages issues de
laboratoires de recherche (universitaires ou industriels) pour leurs
étudiantes et étudiants de première année (L3).

Sujet :

Les stages ont lieu entre juin et août 2021, et doivent constituer une
initiation à la recherche. Les stages durent 6 semaines pour l’ENS de
Lyon et 8 semaines pour l’ENS Paris. Une contrainte supplémentaire pour
l’ENS Paris, non applicable aux stages de l’ENS de Lyon, est que les
stages doivent se dérouler en dehors de l’Île-de-France.

Les élèves des Écoles normales supérieures ont suivi des cours de base en
algorithmique et programmation, en langages de programmation, en langages
formels, calculabilité et complexité, en systèmes et réseaux, en
architecture, etc. Ils ont pu également suivre certains cours plus
avancés, ainsi que des cours de mathématiques.

Profil du candidat :

Si vous souhaitez soumettre une proposition de stage, veuillez préparer
un descriptif au format PDF de votre stage et le déposer sur les deux
sites suivants :
http://www.ens-lyon.fr/DI/stageL3/submit.php (pour l’ENS de Lyon)
https://stages.di.ens.fr/internships/submit (pour l’ENS Paris)
avec les autres informations demandées *d’ici le 7 février 2021*. Les
propositions seront validées manuellement avant d’être transmises aux
étudiantes et étudiants.

Formation et compétences requises :

N’hésitez pas à faire circuler cet appel à propositions parmi vos équipes
ou collègues.

Nous restons à votre disposition si vous avez besoin d’informations
complémentaires.

Adresse d’emploi :

Cordialement,


Pierre Aboulker, pour l’ENS Paris
Eric Thierry, pour l’ENS de Lyon

Architectures de lacs de données
Jan 15 – Jan 16 all-day

Annonce en lien avec l’Action/le Réseau : ADOC

Laboratoire/Entreprise : ERIC (Lyon), en lien avec l’IRIT (Toulouse)
Durée : 5 mois
Contact : jerome.darmont@univ-lyon2.fr
Date limite de publication : 2020-01-15

Contexte :
Le concept de lac de données (data lake) a été introduit comme une alternative aux entrepôts et magasins de données pour le stockage et l’analyse des mégadonnées (big data). Le lac de données est un vaste dépôt de données brutes de structures hétérogènes, alimenté par des sources de données externes et à partir duquel des analyses diverses peuvent être réalisées. Un lac de données propose un stockage intégré des données sans schéma prédéfini. En l’absence de schéma de données, un système de métadonnées efficace est essentiel pour rendre les données interrogeables et empêcher ainsi le lac de se transformer en « marécage » (data swamp) inexploitable.

Les premiers travaux sur les lacs de données ont rapidement associé ce nouveau concept à la technologie Hadoop en le considérant comme une méthodologie consistant à utiliser des technologies libres ou peu coûteuses, typiquement Hadoop, pour assurer le stockage, le traitement et l’exploration des données brutes au sein d’une entreprise. Cependant, cette vision est de plus en plus minoritaire dans la littérature, le concept de lac de données est désormais également associé à des solutions propriétaires comme Azure ou IBM ou encore les multistores.

Par ailleurs, les lacs de données sont le plus souvent considérés comme des bacs à sable au sein desquels les data scientists mènent des travaux exploratoires. En revanche, les laboratoires ERIC (Université de Lyon) et IRIT (Université de Toulouse) travaillent de concert à rendre les lacs de données accessibles à un plus large panel d’acteurs, par exemple des business users au fait des outils décisionnels ou des chercheur∙es. Il s’agit ainsi d’industrialiser les processus de science des données pour étayer le nouveau concept de business intelligence and analytics (BI&A).

Sujet :
Dans ce contexte, les objectifs du stage sont :
• sur la base de l’état de l’art :
o de définir une architecture fonctionnelle de référence pour les lacs de données,
o de recenser les grands scénarios d’utilisation des lacs de données ;
• de proposer et de tester des architectures techniques (piles technologiques) alternatives relatives à ces scénarios ;
• de développer un outil de génération automatique d’architectures physiques répondant aux différents scénarios.

Profil du candidat :
Le sujet de stage s’adresse à des étudiant∙es en 1ère ou 2e année de master (ou équivalent) en informatique décisionnelle ou en sciences des données. Des compétences en bases de données, en entrepôts de données, en traitement des données massives ou en technologies liées aux big data seront particulièrement appréciées.

Formation et compétences requises :
Le sujet de stage s’adresse à des étudiant∙es en 1ère ou 2e année de master (ou équivalent) en informatique décisionnelle ou en sciences des données. Des compétences en bases de données, en entrepôts de données, en traitement des données massives ou en technologies liées aux big data seront particulièrement appréciées.

Adresse d’emploi :
Merci d’adresser, avant le 15 janvier 2020, votre candidature avec un CV, une lettre de motivation ainsi que vos notes de l’année universitaire en cours et de l’année dernière à jerome.darmont@univ-lyon2.fr, sabine.loudcher@univ-lyon2.fr et Franck.Ravat@irit.fr
Les candidat∙es retenus seront convoqué∙es pour un entretien fin janvier.

Document attaché : Offre-stage-Master-Recherche-Data-Lakes.pdf

Deep learning inversion of sea surface processes from SAR imaging
Jan 15 – Jan 16 all-day

Offre en lien avec l’Action/le Réseau : MACLEAN/– — –

Laboratoire/Entreprise : Lab-STICC/IMT Atlantique
Durée : 6 mois
Contact : ronan.fablet@imt-atlantique.fr
Date limite de publication : 2020-01-15

Contexte :
This internship offer is open in the framework of AI chair OceaniX (https://cia-oceanix.github.io/), which develops Physics-Informed AI for Ocean Monitoring and Surveillance. PhD opportunities are likely to be offered for the successful candidate.

Sujet :
Data-driven and learning-based strategies for the analysis, modeling and reconstruction of dynamical systems are currently emerging as promising research directions as an alternative to classic model-driven approaches for a wide variety of application fields, including atmosphere and ocean science, remote sensing, computer vision…. [2,3,4]. Especially, deep learning schemes [1] are currently investigated to address inverse problems, i.e. reconstruction of signals or images from observations. Especially, recent works [e.g., 3,4] have shown that one can learn variational models and solvers for the reconstruction.
This internship will specifically investigate the development of deep learning inverse models for SAR imaging to retrieve sea surface geophysical parameters (e.g., wave fields, sea surface winds,..). Based on a review of the state-of-the-art [eg, 3,4,5], the goal will to propose, implement and evaluate different deep learning schemes. Case-studies with groundtruthed real SAR imaging datasets will be considered and implemented.
Keywords: deep learning, inverse problems, variational models, SAR imaging; ocean remote sensing.

Profil du candidat :
MSc. and/or engineer degree in Applied Math., Data Science and/or Computer Science with a strong theoretical background, proven programming skills (Python).

Formation et compétences requises :
Advanced knowledge of deep learning models and a first experience with Pytorch would be a plus.

Adresse d’emploi :
IMT atlantique, Brest

Document attaché : 202012171704_sujet_stage_DLSARImaging_2021.pdf

STAGE Master 2 – Fusion des données Satellitaires (Sentinel-2 et ALS) pour la caractérisation des forêts à travers des techniques de Deep Learning
Jan 15 – Jan 16 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : UMR TETIS
Durée : 6 mois
Contact : dino.ienco@irstea.fr
Date limite de publication : 2020-01-15

Contexte :
Le projet Protest (PROspective TErritoriale SpaTialisée) (https://protest.irstea.fr/) est un projet de recherche appliquée financé par l’ADEME qui vise à construire une méthodologie d’analyse territoriale de la biomasse forestière en s’appuyant sur 1/ une cartographie haute résolution de la ressource et de ses conditions de mobilisation, 2/ des scénarios de gestion intégrant le contexte socio-économique local et global, 3/ des modèles d’évolution forestière à moyen/long terme, et 4/ des modules d’évaluation des services écosystémiques. Le territoire d’étude est le Parc Naturel Régional du Massif des Bauges.
La cartographie des ressources forestières a été réalisée en s’appuyant sur des relevés d’inventaire terrain (323 placettes mesurées en forêt au niveau du Parc) et sur des données Lidar aéroportées (https://protest.irstea.fr/). Le lidar est une technologie particulièrement intéressante pour mesurer la structure de la végétation (Durrieu et al. 2015; Lim et al. 2003; Van Leeuwen and Nieuwenhuis 2010). Utilisées avec des données de référence terrain elles permettent de développer des modèles pour prédire des paramètres forestiers à partir de variables de structure qui sont issues des nuages de points 3D Lidar. Une fois établis, les modèles peuvent ensuite être extrapolés à la totalité de la zone d’étude, conduisant à la cartographie de certains paramètres forestiers utiles aux gestionnaires (Bouvier et al. 2015; Monnet et al. 2015; Véga et al. 2016). Dans le cadre du projet PROTEST, l’ONF a ainsi produit des cartes de la surface terrière, du % de gros bois en surface terrière, du diamètre dominant et des grands types de peuplements (résineux purs, dominantes, feuillus, purs, dominants et mélanges).
Certaines études ont montré l’intérêt de combiner les données Lidar avec l’information spectrale d’images provenant de capteurs spatiaux multispectraux à haute résolution spatiale (e.g., Monnet et al., 2015) ou de capteurs hyperspectraux aéroportés (e.g., Zhao et al. 2018). Actuellement, l’offre en données de télédétection spatiale adaptées au suivi des écosystèmes forestiers évolue rapidement. La mission Sentinel-2 apporte par exemple une richesse spectrale à haute résolution spatiale précieuse pour identifier la composition et l’état des peuplements (Grabska et al., 2019; Sheeren et al., 2016), et ce avec une couverture systématique et une fréquence de revisite inédite à ces résolutions. De par leurs caractéristiques les données Sentinel-2 apportent une information complémentaire à celle des données lidar. Leur potentiel pour caractériser les forêts du Parc Naturel Régional du Massif des Bauges n’a cependant pas encore été évalué. Or ces données sont distribuées gratuitement (programme Copernicus de l’ESA) et peuvent donc être facilement mobilisées pour la gestion des territoires.

Sujet :
Les principales étapes envisagées pour la réalisation du stage sont :
– Analyse bibliographique sur l’utilisation des systèmes lidar et des images Sentinel-2 pour le suivi des écosystèmes forestiers ; lecture des documents relatifs au projets.
– Mise en place du jeu de données :
o Prise en main des données existantes (bdd terrain, données ALS, métriques ALS utilisées dans les modèles ONF)
o Téléchargement d’une série temporelle d’images Sentinel-2 (images géoréférencées et en réflectance)
– Identification (par analyse de la littérature) et calcul d’indices spectraux d’intérêt pour la classification des types de végétation à partir des images Sentinel-2.
– Évaluation de l’apport des données Sentinel-2 pour la détermination et la cartographie de la composition spécifique des forêts du PNR du Massif des Bauges ;

o o
o
o
o
La composition spécifique sera définie au niveau des placettes inventoriées selon différentes typologies (en particulier, en tenant compte ou non du statut dominant des arbres).
Pour chaque typologie, la combinaison de dates et de bandes spectrales ou d’indices spectraux la plus adaptée pour discriminer les différents types sera identifiée puis utilisée pour classer les images. La qualité des différentes classifications sera analysée.
Evaluation de la fusion des données Sentinel-2 et ALS pour la caractérisation des forêts
Les variables issues des images Sentinel-2 seront combinées avec les métriques lidar utilisées pour la caractérisation des grands types de peuplements (résineux purs, dominantes, feuillus, purs, dominants et mélanges) afin d’améliorer la qualité des classification (taux d’erreur actuel de classification des placettes = 11%)
Les variables Sentinel-2 seront aussi utilisées pour l’estimation de certains paramètres forestiers de structure (e.g., surface terrière, %de gros bois) en complément des métriques Lidar. Les modèles d’estimation lidar étant en théorie dépendant du type de peuplement, les données Sentinel-2 pourront intervenir au niveau d’une stratification préalable ou être intégrée directement dans les modèles de régression.
Les résultats avec et sans données Sentinel-2 seront comparés Rédaction du rapport et préparation de la soutenance.

Profil du candidat :
– Master II ou dernière année d’école ingénieur
– Compétences : programmation et géomatique (bases solides en télédétection)
– Bonne connaissance d’au moins un langage informatique (le langage R sera utilisé)
– Des connaissances en foresterie sont un plus
– Goût pour la recherche scientifique et l’interdisciplinarité
– Maîtrise de l’anglais et bonne capacité rédactionnelle

Formation et compétences requises :
– Master II ou dernière année d’école ingénieur
– Compétences : programmation et géomatique (bases solides en télédétection)
– Bonne connaissance d’au moins un langage informatique (le langage R sera utilisé)
– Des connaissances en foresterie sont un plus
– Goût pour la recherche scientifique et l’interdisciplinarité
– Maîtrise de l’anglais et bonne capacité rédactionnelle

Adresse d’emploi :
500, Rue Jean François Breton,
34090 Montpellier, France

Document attaché : stage_sylvie.pdf

The new DISRUPTIVE approach of Multimodel Data Warehouse: Application to real robots sensors data
Jan 15 – Jan 16 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : INRAe
Durée : 6
Contact : sandro.bimonte@irstea.fr
Date limite de publication : 2020-01-15

Contexte :
**!!!!!The internship grant scientific work is based on our new paper that will appear at DOLAP2020 : “To Each His Own: Accommodating Data Variety by a Multimodel Star Schema”. !!!!!

Sujet :
**Our proposal is a preliminary work that define DW schema inside Multimodel databases [1]. In particular, on using a multimodel (MM) star schema to deal with variety in data warehouses (DW) where the same schema may contain different data types that are not necessarily structured.
The paper is a “preliminary investigation” and thus there are not many conclusive findings, but the paper introduces the basics and points to many directions for future work. The topic is very important in this era of big data management and for many real-life applications.
Some directions of this future work will investigated during the internship.

**In particular, we will provide some methods and tests to “measure” the benefit of our approach against relational and single NoSQL model for: (i) variety, (ii) flexibility, and (iii) ETL
A real case study concerning agricultural tractors and robots data (i.e. trajectory data) will be used during the project.

[1] Jiaheng Lu and Irena Holubová. 2019. Multi-model
Databases: A New Journey to Handle the Variety of Data.ACM
Comput. Surv.52, 3 (2019), 55:1–55:38

Profil du candidat :
**Required skills:
Data Warehouse
Databases
ETL
Spatial data (optional)
Mondrian OLAP server (optional)

Formation et compétences requises :

Data Warehouse
Databases
ETL
Spatial data (optional)
Mondrian OLAP server (optional)

Adresse d’emploi :
INRAe 9 avenue Blaise Pascal
Aubiere France

Document attaché :

Un lac de données pour la gestion des données multimédia du projet BRETEZ
Jan 15 – Jan 16 all-day

Annonce en lien avec l’Action/le Réseau : ADOC

Laboratoire/Entreprise : ERIC, Université Lumière Lyon 2
Durée : 5 mois
Contact : jerome.darmont@univ-lyon2.fr
Date limite de publication : 2020-01-15

Contexte :
BRETEZ est un projet pluridisciplinaire qui vise la restitution visuelle et sonore de Paris dans la seconde moitié du XVIIIe siècle. Projet exploratoire, il se développe par modules qui s’imbriquent les uns aux autres avec des caractéristiques essentielles : les modules doivent être interopérables et ouverts, des outils au service de tous.

Les restitutions historiques urbaines (issues ou non de l’archéologie de terrain) prennent appui sur des moteurs de jeux vidéo ayant leurs propres caractéristiques liées à leur destination première, le jeu. Or, ces outils sont utilisés par des chercheurs ayant des besoins spécifiques de gestion, mais également de traçabilité. La documentation nécessaire au projet BRETEZ représente de gros volumes de données hétérogènes et multimédia (aspects volume et variété des big data).

Dans le projet BRETEZ, le module STRATEGE (Système de TRAçabiliTE et de Gestion de l’information de données multimédia) devra à terme permettre le stockage, la modélisation, l’interrogation et l’analyse de toutes les données du projet, données par nature multimédia. Maîtriser l’hétérogénéité des données, gérer leur qualité et leur volume, garantir leur interopérabilité et leur accès efficace tout en les conservant dans leur forme originelle afin qu’elles demeurent des références utilisables peut s’envisager en exploitant le concept de lac de données (data lake).

Sujet :
Un premier stage recherche de master en 2018-2019 a permis d’explorer cette piste. Un état des lieux de l’existant du projet BRETEZ a permis de recenser toutes les données du projet avec des données dans une base de données, des documents textuels, des fichiers son, des fichiers image, une maquette dans Unity (un logiciel de développement de jeu vidéo), etc. La base de données a été entièrement restructurée et les premiers fondements du lac de données ont été posés.

L’objectif du deuxième stage recherche de master en 2019-2020 est de :
– poursuivre la construction du lac de données notamment avec le développement du système de gestion des métadonnées ;
– intégrer dans le lac les données provenant de la maquette vidéo ;
– de formaliser les besoins d’analyse des données du lac ;
– de concevoir les outils d’analyse tenant compte du contenu textuel, visuel et audio et de l’hétérogénéité des sources.

Profil du candidat :
Le sujet de stage s’adresse à des étudiants en 1e ou 2e année de master en informatique décisionnelle, en fouille de données ou en sciences des données. Des compétences en bases de données, en traitement des données massives, en technologies liées au Big Data ou en jeux vidéo seront particulièrement appréciées.

Formation et compétences requises :
Le sujet de stage s’adresse à des étudiants en 1e ou 2e année de master en informatique décisionnelle, en fouille de données ou en sciences des données. Des compétences en bases de données, en traitement des données massives, en technologies liées au Big Data ou en jeux vidéo seront particulièrement appréciées.

Adresse d’emploi :
Merci d’adresser, avant le 15 janvier 2020, votre candidature avec un CV, une lettre de motivation ainsi que vos notes de l’année universitaire en cours et de l’année dernière à jerome.darmont@univ-lyon2.fr, sabine.loudcher@univ-lyon2.fr et mylene.pardoen@wanadoo.fr. Les candidats retenus seront convoqués pour un entretien fin janvier.

Document attaché : Offre-stage-Master-Recherche-STRATEGE.pdf

Jan
31
Fri
2020
Stage M2 – Algorithmes d’encodage de données binaires en séquences ADN
Jan 31 – Jan 30 all-day

Annonce en lien avec l’Action/le Réseau : Formation

Laboratoire/Entreprise : LIP6 – Sorbonne Université
Durée : 6 mois
Contact : bernd.amann@lip6.fr
Date limite de publication : 2020-31-01

Contexte :

Le stockage d’information sur ADN est une technologie émergente qui constitue une solution durable (quelques dizaines de milliers d’années), à faible impact énergétique et extrêmement compacte [Church12]. Le stockage d’informations numériques sur ADN a été pour l’instant effectué sur des pools d’oligonucléotides synthétisés, stockés et lus in vitro. Alors que cette méthodologie s’est révélée utile pour démontrer la faisabilité du stockage numérique sur ADN, elle présente de nombreuses limitations. Afin de lever ces limitations et de développer des systèmes de stockage sur ADN plus performants, nous développons des solutions d’archivage originale in vivo, en rupture avec les technologies existantes.

Ce stage est financé par Sorbonne Université dans le cadre du projet émergence DNA SYSTEM et s’effectuera en collaboration avec deux équipes de recherche en informatique (BD et DELYS) et deux équipes en biologie (Z. Xu et S. Lemaire) qui développent de nouvelles techniques pour le stockage et la manipulation de l’information numérique sur ADN. Ce stage implique également des interactions fortes entre ces différentes équipes.

Sujet :
Objectifs du stage

Ce stage de master visera à poursuivre ces travaux en étudiant le problème d’encodage et de décodage de séquences binaires 0/1 en séquences DNA ACGT avec des propriétés particulières, intégrées dans le support physique. Cet encodage doit être biocompatible et biosécurisé et permettre la manipulation (copie, édition, lecture, écriture) de longs fragments d’ADN in vivo et in vitro.

Il existe déjà un algorithme de biocompatibilité qui utilise un encodage flexible Church-Gao-Kosuri (0=A=C ; 1=T=G) et permet de moduler des séquences afin qu’elles satisfassent des contraintes spécifiques comme par exemple :

Taux de présence de nucléotides spécifiques, par exemple %GC du génome de l’organisme hôte, pour améliorer les performances en lecture et écriture ;

Interdiction des répétitions de plus de trois nucléotides (ACGT) identiques pour réduire notamment les erreurs de lecture et d’écriture ;

Suppression et ajouts de séquences spécifiques pour obtenir un assemblage de fragments biocompatible pour l’organisme vivant ;

Travail à effectuer

Formaliser les contraintes de biocompatibilité et biosécurité ;

Etudier et analyser l’algorithme d’encodage existant (convergence, complexité/coût) ;

Etudier l’état de l’art sur les algorithmes d’encodage existants [Tulpan06] ;
Proposer des solutions nouvelles en utilisant par exemple des index et des techniques de machine learning;
Implémenter et évaluer une ou plusieurs solutions proposées avec un simulateur ;

[Church12] Church, G. M., Gao, Y., & Kosuri, S. (2012). Next-generation digital information storage in DNA. Science, 337(6102), 1628-1628.

[Tulpan06]Tulpan, D. C. (2006). Effective heuristic methods for DNA strand design (Doctoral dissertation, University of British Columbia).

Profil du candidat :
Bonnes compétences en algorithmique (recherche stochastique, algorithmes génétiques) et programmation (Java, Python)

Des connaissances en biologie/génétique sont bienvenues

Formation et compétences requises :
M2 en cours

Adresse d’emploi :
Sorbonne Université
4 place Jussieu
75252 Paris cedex 05

Document attaché :

Explication de modèles prédictifs par sélection d’instances
Jan 31 – Feb 1 all-day

Annonce en lien avec l’Action/le Réseau : Formation

Laboratoire/Entreprise : Société Kaduceo avec co-encadrement de l’IRIT (Toulouse)
Durée : 6 mois
Contact : julien.aligon@irit.fr
Date limite de publication : 2020-01-31

Contexte :
La mission s’inscrit dans le cadre d’une collaboration entre l’entreprise Kaduceo et l’équipe SIG de l’IRIT. Le cœur de métier de Kaduceo porte sur l’aide à la décision pour les données de santé, en particulier sur les hospitalisions et consultations. Ces données ont, en particulier, besoin d’être catégorisées automatiquement afin de mieux prendre en charge les patients et d’améliorer les conditions de travail des professionnels de santé (par exemple dans les Centres Hospitaliers). A cette fin, l’utilisation de modèles prédictifs peut être une solution mais ils sont généralement difficiles à appréhender. En effet, le manque d’explications sur ces modèles mène à un effet « black box », entrainant une possible perte de confiance de l’utilisateur. Afin d’éviter ce problème, quelques stratégies d’explications de prédictions ont été proposées dans la littérature [3, 4, 5].

[3] Ribeiro, Marco Tulio and Singh, Sameer and Guestrin, Carlos, “Why Should I Trust You?”: Explaining the Predictions of Any Classifier, SIGKDD 2016
[4] Gabriel Ferrettini, Julien Aligon and Chantal Soulé-Dupuy, “Explaining single predictions : a faster method”, SOFSEM 2020 (To Appear)
[5] Gabriel Ferrettini, Julien Aligon et Chantal Soulé-Dupuy, « Un cadre d’aide à l’exploitation des résultats de prédictions », à destination d’experts de domaine, Inforsid 2019

Sujet :
L’objectif du stage porte sur la conception et la réalisation d’une nouvelle méthode d’explication pour les modèles prédictifs. Le but sera d’identifier, dans le dataset, le sous ensemble d’instances (le plus réduit possible) expliquant au mieux le modèle. Ces instances pourraient être vues comme des exemples caractéristiques du modèle. Ainsi, l’utilisateur n’aurait plus qu’à analyser ces instances afin de comprendre et valider son modèle.

Les principales étapes du stage sont les suivantes :
– Analyser et préparer les données du cas d’usage
– Appliquer des algorithmes de prédictions
– Concevoir et implémenter l’algorithme de sélection d’instances pour l’explication

Il est à noter que le bon déroulement du stage pourra mener à une possible thèse CIFRE par la suite.
Le stage est rémunéré aux alentours de 900€ par mois.

Profil du candidat :
Le stagiaire devra avoir un intérêt certain pour l’analyse de données et le machine learning. Le stagiaire devra également disposer d’une capacité à s’exprimer auprès de non-spécialistes en informatique.

Formation et compétences requises :
Etudiant M2.
De fortes compétences en Python sont attendues.

Adresse d’emploi :
96 Avenue Jules Julien N°5, 31400 Toulouse

Document attaché : proposition_stage_kaduceo.pdf

Graphes dynamiques pour l’analyse stratégique du sport collectif
Jan 31 – Feb 1 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : LITIS / GREYC
Durée : 6 mois
Contact : francois.rioult@unicaen.fr
Date limite de publication : 2020-01-31

Contexte :
Depuis quelques années, des chercheurs se sont penchés sur l’analyse des stratégies dans les sports collectifs les plus pratiqués : football, basket-ball, hand-ball en particulier. Cet intérêt récent s’explique par le constat qu’une équipe correspond parfaitement aux définitions les plus utilisées pour les systèmes complexes. Cette admission est fortement liée à la notion de performance collective. La performance d’une équipe est en effet loin de se réduire à la somme des performances des individus, ce qui fait tout le succès de ces sports. Il est donc naturel d’appliquer les méthodes d’analyse des systèmes complexes aux stratégies des équipes. Dans le champ des recherches cognitives, les sports collectifs permettent d’observer l’émergence d’une intelligence collective, permettant la mise en œuvre de stratégies complexes.
En parallèle, les moyens d’observation se sont considérablement accrus ces dernières années (films, positionnement par balises GPS, capteurs divers sur les joueurs,..) permettant un accès plus facile à de nombreuses données.

Mais jusqu’à maintenant, les méthodes d’analyse étaient essentiellement issues des statistiques et de l’analyse des données. Ces méthodes (comme l’analyse de séries chronologiques) permettent de
mettre en évidence certains types de comportements. Elles sont cependant surtout dévouées à l’analyse de comportements individuels (e.g. positions sur le terrain, kilomètres parcourus, …) et prennent difficilement en compte la double dimension spatiale/temporelle nécessaire à l’analyse.

Les approches focalisant sur les aspects collectifs sont rares.
Des études récentes utilisent l’approche par réseau social et construisent un réseau statique modélisant les inter-relations entre les joueurs, interactions pouvant être liées à leurs positions respectives. Elles ne capturent pas la dimension temporelle.

Sujet :
L’objectif est d’explorer une nouvelle voie pour caractériser les stratégies d’équipe : les graphes dynamiques.
Un graphe dynamique peut être vu comme un graphe dont la structure, par exemple les arêtes, évolue dans le temps. On peut également y voir une succession de graphes statiques, étiquetés par des dates successives. Ce concept est utile dans de nombreux contextes, comme la circulation des biens ou des personnes, les réseaux de communication, les réseaux sociaux. On peut étudier les problèmes classiques dans ce nouveau contexte. En particulier, la recherche de motifs dans un graphe s’étend dans un graphe dynamique : le motif cherché a une composante temporelle. On peut par exemple le définir comme une succession de motifs statiques.

La question posée est celle-ci : comment peut-on construire un graphe dynamique à partir des données de positionnement des joueurs (et de la balle) durant un match, de manière à faire apparaître des motifs caractérisant la stratégie de cette équipe ?
Cette question comporte plusieurs volets :
1. la nature du graphe à construire : quels sommets, quelles arêtes ? Doit-on attacher aux sommets, aux arêtes des caractéristiques (attributs) différents? De manière triviale on peut définir qu’un sommet est un joueur ou un ballon, ou un panier de basket-ball. Cependant, la
nature de la relation attachée à une arête est plus délicate à définir, entre par exemple deux joueurs (mais aussi les relations entre les autres objets), sachant qu’ils peuvent être de la même équipe ou non, proches ou non, visibles ou non, …
2. le type de motif à chercher : la compétence sportive est ici indispensable pour valider les motifs, qui doivent avoir une dimension relative aux graphes et une dimension spatiale.
3. volet méthodologique : comment mettre en évidence ces motifs ?
4. validation : application des résultats obtenus sur les données disponibles pour le basket-ball et le handball.
Les deux premiers volets sont liés et nécessitent de mettre en commun des expertises sportives et de modélisation par les graphes. On voit également qu’il est nécessaire d’enrichir les graphes, c’est à dire de considérer des graphes dynamiques sémantiques. Le troisième volet nécessite des compétences algorithmiques particulières de recherche de motifs.

Profil du candidat :
Le stagiaire de Master 2 recruté sera associé au travail d’un stagiaire STAPS qui amènera une expertise dans le domaine sportif, ainsi que par plusieurs stagiaires en informatique (L3). Il participera au volet 1 et 2 de construction du graphe et de caractérisation des motifs, et ensuite son
travail se focalisera sur la recherche et la validation de motifs graphiques (volet 3 et 4). Des données issues de basket-ball et de handball sont disponibles pour pouvoir mener à bien ces travaux.

Formation et compétences requises :
Science des données, fouille des données.

Adresse d’emploi :
Caen, Rouen ou Le Havre

Document attaché : 20191208-sujetMasterGraphesSports.pdf

Recommandation de liens dans un réseau d’auteurs
Jan 31 – Feb 1 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : laboratoire ERIC, Université Lyon 2 (campus de Bron)
Durée : 4-6 mois
Contact : julien.velcin@univ-lyon2.fr
Date limite de publication : 2020-01-31

Contexte :
Le projet LIFRANUM (Littératures FRAncophones Numériques), financé par l’Agence Nationale de la Recherche pour une période allant de 2020 à 2023, vise à analyser l’impact des modifications des supports de l’écrit sur
les pratiques littéraires. Il regroupe des chercheurs de l’équipe MARGE (Université Lyon 3) et du laboratoire ERIC (Universités Lyon 2 et Lyon 1), en partenariat avec la Bibliothèque nationale de France. L’ambition du projet est notamment de construire une plateforme en ligne qui permettra de faciliter l’analyse des créations littéraires sur le Web par les chercheurs en information-communication et en littérature.

Sujet :
Dans le cadre du projet LIFRANUM, nous cherchons un stagiaire en Informatique afin de pouvoir tester plusieurs algorithmes de la littérature (informatique) pour suggérer de nouveaux liens dans le réseau des auteurs des textes produits sur les supports numériques (par ex. site web personnel, blog), mais également pour proposer des algorithmes originaux. Pour bien débuter, le stagiaire pourra s’appuyer sur des travaux en cours menés par des chercheurs du laboratoire ERIC sur l’apprentissage de représentation (representation learning) d’auteurs. Il aura accès à des données récupérées dans le cadre du projet, mais il travaillera également sur un jeu de données déjà collectées au sein du laboratoire.

Profil du candidat :
Nous recherchons un candidat ayant des compétences solides en analyse/fouille de données, en programmation (Python de préférence) et si possible des notions de traitement automatique des langues (natural language processing) / fouille de données textuelles (text mining) et d’apprentissage automatique (machine learning). Un intérêt pour le travail pluridisciplinaire serait un plus.

Formation et compétences requises :
Master en data mining / data science
Master en statistiques appliquées / analyse des données
Master en traitement automatique des langues (NLP)

Adresse d’emploi :
Université Lyon 2, laboratoire ERIC
5 avenue Pierre Mendès France
69676 Bron

Document attaché : stage-info-lifranum.pdf

Stage M2 – Evolution temporelle des domaines scientifiques
Jan 31 all-day

Annonce en lien avec l’Action/le Réseau : Formation

Laboratoire/Entreprise : LIP6 – Sorbonne Université
Durée : 6 mois
Contact : bernd.amann@lip6.fr
Date limite de publication : 2020-31-01

Contexte :
L’analyse thématique de corpus scientifiques permet de mieux comprendre les avancées effectuées dans les différents domaines de la science [1]. Au fil des années et des découvertes, les domaines scientifiques évoluent progressivement. Certains sujets prennent de l’ampleur dans un domaine jusqu’à devenir un domaine à part entière. Inversement d’autres sujets peuvent être délaissés dans certains domaines. Analyser la façon dont les domaines scientifiques se forment et évoluent dans un corpus qui rassemble des articles scientifiques sur plusieurs années ou décennies (comme par exemple HAL, arXiv ou Web of Science) permet aux historiens et philosophes de valider leurs modèles d’évolution de la science, aux scientifiques de mieux positionner leurs contributions dans le contexte historique, aux financeur de mieux prédire des évolutions technologiques etc… Par exemple, on peut se poser les questions suivantes pour mieux comprendre l’engouement autour de l’IA : Est-ce que l’IA est la même aujourd’hui que dans les années 2000 ? En quoi est-elle différente ou similaire ? Quels sont les domaines se rapportant à l’IA ? Est-ce que l’IA est une thématique transversale à plusieurs domaines ou plutôt au cœur de certains domaines ?

Sujet :
Objectifs

Ce stage s’appuie sur le workflow EPIQUE [2] d’analyse de grands corpus de documents scientifiques en cours de réalisation au laboratoire LIP6. Le workflow EPIQUE est implanté en Scala avec la plate-forme SPARK et utilise la méthode LDA pour représenter un domaine scientifique (topic) sous forme d’un ensemble de termes pondérées. Les 3 étapes du workflow permettant d’extraire l’évolution des domaines sont :

découper le corpus entier en plusieurs tranches en déplaçant une fenêtre temporelle,

appliquer la méthode LDA pour extraire les domaines scientifiques dans
chaque tranche de temps. Les domaines ainsi produits sont appelés une époque scientifique,

comparer les époques pour déterminer dans quelle mesure elles évoluent dans le temps.

Seules les étapes (1) et (2) étant déjà réalisées, le stage a pour objectif de concevoir et réaliser l’étape (3). Cela soulève plusieurs questions : comment représenter l’évolution des époques ? Comment mesurer la qualité des résultats ? Comment augmenter les performances ?
Travail à réaliser :

Etat de l’art sur les modèles d’analyse sémantique et temporelle de contenus documentaires,

définition d’un modèle d’appariement des époques. L’appariement peut s’appuyer sur une analyse des similarités entre les domaines.

définition d’un algorithme pour extraire des appariements et d’une mesure pour noter la qualité des appariements obtenus.

implantation et intégration du modèle dans le workflow EPIQUE,

évaluation expérimentale sur plusieurs corpus,

optimisation du workflow EPIQUE.

Profil du candidat :
Etudiant M2

Formation et compétences requises :
programmation Java/Scala/Python

expérience Notebook, Spark

Adresse d’emploi :
LIP6-Sorbonne Université
4 place Jussieu
75252 Paris

Document attaché :

Feb
1
Sat
2020
Apprentissage semi-supervisé et faiblement supervisé pour la segmentation sémantique
Feb 1 – Feb 2 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : CEDRIC – CNAM
Durée : 6 mois
Contact : nicolas.audebert@cnam.fr
Date limite de publication : 2020-02-01

Contexte :
La compréhension de scènes est un enjeu majeur de la recherche en perception artificielle. Il s’agit non seulement d’identifier les objets imagés mais aussi de comprendre les relations qui les lient : la fracture est-elle horizontale ou verticale, les livres sont-ils rangés, le piéton traverse-t-il ? Depuis quelques années, les approches les plus efficaces de l’état de l’art reposent sur des réseaux de neurones convolutifs profonds (CNN) permettant la détection ou la segmentation d’objets d’intérêt dans les images. Toutefois, le paradigme d’apprentissage supervisé demeure le plus populaire et les modèles profonds sont ainsi gourmands en annotations. Or, l’étiquetage exhaustif des objets, voire des pixels, d’une image est un procédé d’annotation coûteux et qui nécessite souvent l’intervention d’experts (par exemple, des médecins) dont le temps est précieux. Récemment de nouvelles approches d’apprentissage dites semi-supervisée ou faiblement supervisées [Dur+17] se sont intéressées à la réduction de la quantité et de la qualité des annotations nécessaires à l’obtension des performances à l’état de l’art en reconnaissance de formes, jusqu’à se passer entièrement d’annotations [Buc+19]. L’objet de ce stage est ainsi d’étudier les approches parcimonieuses en supervision pour la compréhension d’images.

Sujet :
Il existe dans la littérature scientifique plusieurs approches de classification d’images semi-supervisées, par préentraînement non-supervisé [Car+18 ; NF16], propagation d’étiquettes [Rad+18 ; Kho+17] ou contraintes géométriques [Xie+19].

Le premier objectif de ce stage consiste à adapter les techniques de classification semi-supervisées et non-supervisées au problème de la segmentation sémantique. En effet, ces approches exploitent généralement des notions d’invariance ou d’équivariance à des objets à des transformations géométriques qu’il est possible de retrouver ou de modéliser dans le cadre de la compréhension de scènes. Par exemple, faire tourner un objet de 90° doit produire une segmentation où le masque de l’objet correspond à une même rotation du masque initial.

Le second objectif du stage est de réduire le niveau de supervision des exemples d’entraînement, c’est-à-dire d’apprendre à partir d’annotations moins fines ou incomplètes. En pratique, il est rare de pouvoir travailler sur des bases de données où les images ont été complètement annotées au niveau pixellique et il est bien souvent nécessaire de se contenter d’annotations partielles ou grossières, plus rapides à obtenir.

La mise en application des méthodes développées pourra se faire sur différentes applications déjà étudiées au sein du laboratoire : conduite de véhicules autonomes, cartographie d’images satellitaires, analyse d’images médicales ou segmentation d’images naturelles génériques.

[Buc+19] M. Bucher, T.-H. VU, M. Cord et P. Pérez, “Zero-Shot Semantic Segmentation”, in Advances in Neural Information Processing Systems 32, 2019, p. 466-477.
[Car+18] M. Caron, P. Bojanowski, A. Joulin et M. Douze, “Deep Clustering for Unsupervised Learning of Visual Features”, in The European Conference on Computer Vision (ECCV), 2018.
[Dur+17] T. Durand, T. Mordan, N. Thome et M. Cord, “WILDCAT : Weakly Supervised Learning of Deep ConvNets for Image Classification, Pointwise Localization and Segmentation”, in The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017.
[Kho+17] A. Khoreva, R. Benenson, J. Hosang, M. Hein et B. Schiele, “Simple Does It : Weakly Supervised Instance and Semantic Segmentation”, in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017.
[NF16] M. Noroozi et P. Favaro, “Unsupervised Learning of Visual Representations by Solving Jigsaw Puzzles”, in Computer Vision – ECCV 2016, 2016.
[Rad+18] I. Radosavovic, P. Dollár, R. Girshick, G. Gkioxari et K. He, “Data Distillation : Towards Omni-Supervised Learning”, in The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018.
[Xie+19] Q. Xie, Z. Dai, E. Hovy, M.-T. Luong et Q. V. Le, Unsupervised Dat

Profil du candidat :
Nous recherchons un ou une candidate de niveau master 2 ou école d’ingénieur avec une spécialité en mathématiques, en informatique ou en traitement du signal.

Formation et compétences requises :
Le ou la candidate doit démontrer un certain goût pour la recherche et des bases théoriques adéquates en apprentissage automatique, apprentissage profond et traitement d’image. Une aptitude à la programmation, de préférence avec Python, est indispensable. Une première expérience avec une bibliothèque d’apprentissage profond telle que TensorFlow ou PyTorch est un plus.

Adresse d’emploi :
Laboratoire CEDRIC(EA4629) – Conservatoire National des Arts & Métiers
2, rue Conté
75003 Paris

Document attaché : sujet.pdf