Modèle génératif pour les données de mobilité maritime

Offre en lien avec l’Action/le Réseau : RoCED/– — –

Laboratoire/Entreprise : Ecole Navale
Durée : 48 mois
Contact : cyril.ray@ecole-navale.fr
Date limite de publication : 2022-12-31

Contexte :
La thèse s’effectuera au sein de l’équipe de recherche MoTIM de l’ecole navale dans l’objectif de contribuer au domaine du Traitement de l’Information Maritime issue de sources hétérogènes (données capteurs, signaux, images, vidéos, informations géographiques, données textuelles) à l’aide d’algorithme d’intelligence artificielle.

La personne recrutée assure une charge d ’enseignement
annuelle maximale de 96 heures sous forme de travaux pratiques (TP), travaux dirigés (TD) ou encadrement de projets. Ces interventions s’effectuent dans le cadre de la formation d’ingénieur des élèves-officiers de l’Ecole Navale (niveau L3, M1 et M2). Elles peuvent aussi concerner les masters soutenus par l’Ecole Navale (niveau M1 et M2).

Sujet :
La génération de données et de jeux données pseudo-synthétiques est utilisée pour un large éventail d’activités, notamment comme données de test pour de nouveaux outils ou algorithmes, pour la validation de modèles et dans la formation de modèles d’IA [1]. Plus récemment la génération de données synthétiques créées artificiellement plutôt que générées par des événements réels a pris un essor avec l’apparition de modèles génératifs. Les données synthétiques constituent un type d’augmentation de données pour lequel les « Generative Adversarial Nets (GAN) » [2] ont montré des performances prometteuses sur divers types de données. Dans le domaine maritime, le suivi et l’analyse des mobilités a été accéléré avec l’apparition du Système Automatiquement d’Identification (AIS) qui permet la localisation des navires équipés en temps-réel et à travers tous les océans. Les données produites sont des séries spatio-temporelles impactées par
des données manquantes, des problèmes d’intégrité issues des capteurs et/ou de la transmission, et des malv ers ations de
natures diverses telles que la falsification de localisation, de trajectoire ou encore d’identité [3]. Dans ce contexte,
l’objectif de cette thèse est d’aborder la génération de données synthétiques et l’annotation sémantique d e c e tte d o nné e.
Les travaux de thèse pourront s’articuler notamment au travers des objectifs suivants :
− Développer un modèle génératif pour les données de mobilités maritimes permettant de produire des jeux de données
− Évaluer la prise en compte de données hétérogènes complémentaires ; eg. État de la mer.
− Aborder la scénarisation / annotation des jeux de données et évaluer l’utilité et l’impact de techniques « classiques »
d’imputation de données pour aborder la variabilité de scénarios conçus.
− Considérer le problème de classification et de détection de nouveauté en simultanée, notamment pour la prise en
compte de données falsifiées.
− Évaluer les performances / généricité de la démarche en fonction de la localisation géographique des données
produites.

Ressources : La recherche sera essentiellement basée sur les données issues par le système AIS qui fournit la localisation
des navires sur le globe (~ 4 TO / an) ainsi que des informations nominatives [4]. La plateforme TIM (Traitement de
l’Information Maritime) dispose de stations de travail (24 à 112 threads, 64 à 578 Go RAM), un serveur GPU 8*Nvidia
A100, un serveur GPU 8* Nvidia V100.

[1] C. Iphar, A.-L. Jousselme, C. Ray, Pseudo-synthetic datasets in support to maritime surveillance algorithms
assessment, 12 pages, In proceedings of VERITA, 19ème Journées Francophones Extraction et Gestion des
Connaissances (EGC) 2019, RNTI, Marie-Christine Rousset, Lydia Boudjeloud-Assala (eds.), 22 Jan 2019, Metz, France
[2] I. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, and Y. Bengio.
Generative adversarial nets. Advances in neural information processing systems, 27, 2014
[3] C. Iphar, B. Costé, A. Napoli, C. Ray, R. Devillers, Integrity and Trust of Geographic Information, Chapter 4, pages
45-72, Geographic Data Imperfection 1: From Theory to Applications, Mireille Batton-Hubert, Eric Desjardin and
François Pinet (eds.), ISTE éditions, August 2019
[4] C. Ray, R. Dréo, E. Camossi, A.-L. Jousselme, C. Iphar, Heterogeneous Integrated Dataset for Maritime Intelligence,
Surveillance, and Reconnaissance, Data in Brief, Elsevier, 17 pages, Volume 25, August 2019

Profil du candidat :
Master (ou équivalent) en informatique.

Formation et compétences requises :
bonne connaissance des outils et des modèles de base de l’Intelligence Artificielle (apprentissage automatique / profond, etc.) et des techniques de représentation et de traitement de données (géographiques) hétérogènes (corrélation de données, analyse de séries temporelles, imputation de données, etc.)

Intérêt pour l’enseignement.

Adresse d’emploi :
Ecole Navale
Lanveoc
France

Document attaché : 202211090956_FDP_2022_DFS_DDR_AER_IA.pdf

Intelligence géospatiale maritime

Offre en lien avec l’Action/le Réseau : RoCED/– — –

Laboratoire/Entreprise : Ecole Navale
Durée : 24 mois
Contact : cyril.ray@ecole-navale.fr
Date limite de publication : 2022-12-31

Contexte :
Dans le cadre du projet GEOINT, réalisé en collaboration avec Sorbonne Université (Sorbonne Center for Artificial Intelligence : SCAI et l’Institut de l’Océan), et financé par l’Agence d’Innovation de la Défense (AID), l’École navale recherche une/un post-doctorant(e) en informatique / science des données. La personne recrutée participera aux différents travaux sur l’intelligence géospatiale maritime et notamment sur la préparation et le (pré)traitement de données issues de sources hétérogènes (données capteurs, signaux, images, vidéos, informations géographiques, données textuelles), sur la définition et la conception d’algorithme orienté sur l’analyse des mobilités maritimes.

Sujet :
La crise sanitaire et plus récemment la situation géopolitique internationale que nous traversons nous ont rappelé à quel point nos économies modernes étaient tributaires du transport international de marchandises en général et de la maritimisation des échanges internationaux en particulier (puisque 90% de ce transport s’effectuent par voie maritime). Le transport maritime est donc au coeur de nos économies globalisées.
Désormais, à l’aide de nombreux capteurs, un large panel de données maritimes est collecté en continu, archivé, et exploité pour la réalisation de nombreuses applications (suivi des pêches, sécurisation de la navigation, planification de routes optimales, contrôle du respect des règles internationales, protection de la biodiversité…). Les bénéfices de cette numérisation de l’espace et de l’information maritime sont multiples. Elle offre de nombreuses opportunités pour appréhender, analyser, prédire les échanges maritimes par l’analyse des données. L’intelligence géospatiale permet de corréler ces informations, dans l’espace et dans le temps afin d’approfondir la compréhension des mobilités et plus généralement de la situation maritime.
Malheureusement, ces échanges maritimes sont également utilisés pour dissimuler une grande variété d’activités illicites (ex : contournement d’embargos, transbordement sauvage, trafic en tout genre, etc.). L’exploitation de nombreuses faiblesses, failles de sécurité dans les systèmes et mécanismes de transmission ou captation de l’information de localisation temps-réel des navires, offre un large éventail de possibilités pour de la désinformation.
Ces problématiques de véracité peuvent affecter des prises de décision et constituent un enjeu croissant pour l’intelligence géospatiale. Cela nécessite de nouvelles approches de traitement de l’information ou l’adjonction de techniques et algorithmes ad hoc, mêlant connaissances d’expert et techniques d’apprentissage automatique, permettant le maintien de la compréhension informationnelle, la qualité des détections et des prédictions, et favorisant la rapidité d’analyse. L’objectif visé pour le poste concerne le développement d’algorithmes d’analyse et d’apprentissage innovants combinés à une analyse basée sur des règles pour soutenir l’intelligence géospatiale maritime. La recherche bénéficiera des travaux précédemment réalisés et sera organisée par les différents travaux à poursuivre :
– Collecte et préparation de données par fusion de sources diverses et prétraitements, incluant des problématiques de mesure de la qualité de données et de cotation ;
– Définition et implémentation d’algorithmes focalisés sur la compréhension des mobilités maritimes internationales. Modélisation ou apprentissage de comportements réguliers, de schémas et de mouvements indésirables ou anormaux en prenant en compte les possibilités de falsification de la donnée. Ces algorithmes prendront en compte autant que possible les aspects de frugalité (ratio performance de l’algorithme / puissance de calcul nécessaire) et d’explicabilité / transparence (XIA).
– Préparation de données / jeux de données, annotation, conception de scénarios pour l’évaluation des algorithmes.
– Mise en oeuvre d’interfaces (« dashboard data visualisation ») permettant de présenter, exploiter les données et les résultats d’analyse.

Ressources : La recherche sera essentiellement basée sur les données issues par le système AIS qui fournit la localisation des navires sur le globe (~ 4 TO / an) ainsi que des informations nominatives. La plateforme TIM (Traitement de l’Information Maritime) dispose de stations de travail (24 à 112 threads, 64 à 578 Go RAM), un serveur GPU 8*Nvidia A100, un serveur GPU 8* Nvidia V100.

Profil du candidat :
doctorat en informatique.

Formation et compétences requises :
bonne connaissance des outils et des modèles de base de l’Intelligence Artificielle (apprentissage automatique / profond, etc.) et des techniques de représentation et de traitement de données (géographiques) hétérogènes (corrélation de données, analyse de séries temporelles, imputation de données, etc.). Connaissance des différents modèles de bases de données incluant les bases de données graphe, relationnelles ; connaissances en statistique et fouille de données. Langages de programmation préférés : Python, R, Scala, Java.

Adresse d’emploi :
Ecole navale
Lanvéoc
France

Document attaché : 202211090951_FDP_2022_DDR_CDD_GEOINT.pdf

Ingénieur de Recherche : Analyse de données bancaires pour la détection de fraudes dans les paiements bancaires

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRIMAS
Durée : 6 mois
Contact : maxime.devanne@uha.fr
Date limite de publication : 2022-12-31

Contexte :
Le volume des ventes en ligne en France ne cesse d’augmenter. Les paiements à distance sur Internet concentrent l’essentiel de la fraude sur les cartes bancaires françaises (70% du montant de la fraude (255 M€) alors qu’elle ne représente que 14% de la valeur des transactions nationales). La fraude est un phénomène complexe à détecter. En effet, les fraudeurs adaptent en permanence leurs techniques afin de déjouer le système, ce qui fait peser un risque financier et de réputation sur les sites e-commerce et les banques.

Sujet :
Le projet vise à développer des méthodes d’apprentissage automatique pour la détection des fraudes à la carte de crédit. Ce projet est une collaboration entre la société Enygma, spécialisée dans la détection des fraudes bancaires, et l’institut de recherche IRIMAS spécialisé dans les méthodes de machine learning.

Mission principale : La personne recrutée sera chargée de l’étude des méthodes existantes afin de proposer une approche d’apprentissage automatique de détection de fraude à partir de données bancaires.

Profil du candidat :
Les candidats doivent être titulaires d’un Master en informatique et justifier d’une expérience dans le domaine de l’apprentissage automatique. Nous recherchons un profil avec une bonne expérience des méthodes d’apprentissage profond ainsi que de la programmation en Python. Une expérience en optimisation ainsi qu’en programmation CUDA serait un plus.

Formation et compétences requises :
– Master ou Diplôme d’Ingénieur en Informatique
– Programmation Python
– Bibliothèques d’apprentissage automatique et d’apprentissage profond

Adresse d’emploi :
Université de Haute-Alsace
12 rue des Frères Lumière
68093 Mulhouse

Document attaché : 202211090808_IR SATT Enygma Fr-2.pdf

Premier colloque Français d’intelligence artificielle en Imagerie Biomédicale

Date : 2023-03-30 => 2023-03-31
Lieu : Institut Curie Paris

C’est avec grand plaisir que nous vous invitons à participer à la première édition du Colloque Français d’Intelligence Artificielle en Imagerie Biomédicale (IABM 2023). L’objectif de cette manifestation est de rassembler les acteurs français du domaine, qu’ils appartiennent au milieu académique, hospitalier ou industriel. Le colloque est co-organisé par les Instituts 3IA de Grenoble (MIAI), Nice (3IA Côte d’Azur) et Paris (PRAIRIE).

La soumission des posters est ouverte!

Les posters seront sélectionnés par le comité scientifique sur proposition d’un résumé. Retrouvez dans le site web IABM la page de soumission des résumés. La date limite pour soumettre un résumé est le 15/11/2022. Les meilleurs posters seront récompensés par un prix !

—————————–

Orateur principal

Nicholas Ayache (Inria Sophia-Antipolis, Équipe-projet Epione, 3IA Côte d’Azur)

Orateurs invités

Laure Blanc-Féraud (CNRS, Laboratoire I3S, Université Côte d’Azur, 3IA Côte d’Azur, Sophia-Antipolis)

Ninon Burgos (CNRS, Equipe-projet ARAMIS, Institut du Cerveau, PRAIRIE, Paris)

Emilie Chouzenoux (Inria, Equipe-projet OPIS, Centre pour la Vision Numérique, CentraleSupélec, Université Paris-Saclay, Saclay)

Pierrick Coupé (CNRS, Equipe PICTURA, LABRI, Université de Bordeaux, Bordeaux)

Olivier Humbert (Université Côte d’Azur, Centre Antoine Lacassagne, 3IA Côte d’Azur, Nice)

Charles Kervrann (Inria, Equipe-projet SERPICO, IRISA, Université de Rennes, Rennes)

Nicolas Padoy (Université de Strasbourg, Equipe CAMMA, IHU Strasbourg, Strasbourg)

Perrine Paul-Gilloteaux (CNRS, Institut du Thorax, Inserm, CNRS, Université de Nantes, Nantes)

Caroline Petitjean (Université de Rouen Normandie, Laboratoire LITIS, Rouen)

Jocelyne Troccaz (CNRS, Equipe GMCAO, Laboratoire TIMC, MIAI, Grenoble)

Gaël Varoquaux (Inria, Equipe SODA, Saclay)

Christophe Zimmer (Institut Pasteur, Equipe Imagerie et Modélisation, Paris)

Liste non-exhaustive…

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Classification de lésions intrahépatiques en histopathologie par apprentissage profond (deep learning)

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CReSTIC
Durée : 4 à 6 mois
Contact : eric.desjardin@univ-reims.fr
Date limite de publication : 2023-01-31

Contexte :
Les cholangiocarcinomes représentent un groupe hétérogène de cancers développés à partir des canaux biliaires intra ou extra-hépatique. Le diagnostic est histologique, souvent réalisé sur biopsie. Il peut être difficile à établir en raison de la ressemblance morphologique de certains cholangiocarcinomes avec d’autres ou avec des lésions intra-hépatiques bénignes comme l’adénome ou l’hamartome biliaire.
Le but de ce projet est de développer un algorithme diagnostique basé IA permettant de prédire avec une précision optimale le diagnostic de malignité/bénignité des lésions ductulaires intra-hépatiques. Dans ce contexte, il s’agira d’explorer, développer et expérimenter des architectures de réseaux de neurones profonds permettant de classer ces lésions avec une prédiction diagnostique optimale.

Sujet :
Ce stage se positionne dans le cadre d’un projet pluridisciplinaire qui regroupe des experts en informatique, histopathologie et médecine associant IA et Imagerie médicale.
La première étape du projet s’est concentrée sur la collecte et l’annotation des données, la sélection des patients puis le recueil des données cliniques, la numérisation des lames et l’annotation des lames virtuelles.

Le stage proposé débute à la suite de ces travaux préalables sur les données. Le travail à réaliser concerne le développement d’algorithmique pour la classification des lésions histologiques sur les lames numérisées par réseaux de neurones convolutifs (deep learning). Le schéma d’analyse suivant est proposé :
• Segmentation des régions d’intérêt (ROI) annotées sous formes d’imagettes de même taille (tuiles) ; puis extraction de ces tuiles. Les lames numériques annotées entières étaient trop lourdes pour les analyses utilisant les réseaux de neurones convolutifs ; il est nécessaire de segmenter les régions annotées en petites imagettes (tuiles) le plus souvent de 256 pixels de côté pour réaliser les analyses. Le programme d’extraction permet de conserver les données d’annotation et la coordonnée de la tuile dans la lame afin de présenter les résultats de probabilité diagnostique sous forme de carte de prédiction sur la lame numérique.
• Développement et entraînement de réseaux de neurones convolutifs (CNN) alimentés par les tuiles extraites des ROI classées (bénin / malin) sur une cohorte d’entraînement. Si le modèle U-net est bien identifié dans le cadre du traitement des images en histopathologie computationnelle, diverses autres architectures de CNN et/ou prétraitements des données, méritent d’être investigués dans un objectif de recherche de la structure la plus efficace et la plus robuste. Cette phase est généralement très consommatrice en termes de ressources humaines et matérielles. La plateforme OpenMOLE sera la base de plans d’expérimentation de recherche des meilleurs solutions (architectures, paramètres, ensembles d’apprentissage et de validation…) grâce à une distribution automatisée des tâches sur des environnements de calculs intensifs et un recueil centralisé des résultats pour analyse.

Profil du candidat :
Le(la) candidat(e) sera en Master 2 ou en 3e année d’école d’ingénieur.

Formation et compétences requises :
Compétences impératives :
• Intelligence artificielle, machine learning, deep learning
• Programmation Python
• Librairies usuelles de deep learning (TensorFlow, Keras. . . )
• Analyse d’images
Compétences souhaitées mais non-indispensables :
• Imagerie histopathologique

Adresse d’emploi :
Université de Reims Champagne-Ardenne, site de Reims
Laboratoire CReSTIC, Campus Moulin de la Housse

Document attaché : 202211081618_CHOLANGIA.pdf

Research engineer or postdoctorate candidate on Semantic Web Technologies application to inteoperability between research data repositories

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : LIG
Durée : 12 motns
Contact : Marie-Christine.Rousset@imag.fr
Date limite de publication : 2023-01-31

Contexte :
PerSCiDO platform (https://perscido.univ-grenoble-alpes.fr/) is an open platform for sharing research datasets in a way that makes them easily findable thanks to a user-friendly interface and semantic metadata enabling in particular to link datasets with related scientific publications and software. PerSCiDO promotes the use of standard identifiers to improve the visibility of datasets and to facilitate their linkage with related publications or source code. PerSCiDO is based on the Semantic Web technologies and the Linked Data principles. As a result, it can be easily extended to new metadata to describe datasets of varied domains. A distinguishing characteristics of PerSCiDO is that the description of datasets with rich metadata is decoupled with the storage od the datasets themselves, which facilitates its interoperability with other platforms.

Sujet :
After getting familiar with the current version of PerSCiDO, the goal is to extend the functionalities of the current version of PerSCiDO in two directions: first, to take into account easily new metadata coming from standards of some domains ; second, to develop the interoperability of PerSCiDO with other existing or future research data repositories.

This position is funded by the European project FAIR-IMPACT (https://fair-impact.eu/fair-impact-expanding-fair-solutions-across-eosc) and the candidate will be hosted in the SLIDE group (https://www.liglab.fr/fr/recherche/equipes-recherche/slide) of the Laboratory of Informatics in Grenoble (LIG). This group develops scalable algorithms and infrastructures for data management, data mining, data linkage, ontology-based data access and crowdsourcing. SLIDE is involved in the FAIR-IMPACT WP6 aiming at making interoperable the tools and platforms for sharing research data in the European Open Science Cloud (EOSC). The candidate will participate to the regular meetings of the FAIR-IMPACT European project, and is expected to be source of proposals within Task 6.1 “Semantic and Technical core interoperability across domains”.He will also have to validate the proofs-of-concepts on a certain number of use cases defined in the project

Profil du candidat :
We are looking for a motivated research engineer or postdoctorate candidate, with a good experience of Semantic Web technologies (RDF, RDFS, SPARQL) and programming skills in pytho, with some experience in using docker and gitlab or github.

Formation et compétences requises :
PhD in computer science.
– Expertise in Semantic Web technologies (RDF, RDFS, SPARQL)
– Expertise in Python (framework Flask)
– Expertise in operating systems (Debian)
– Some experience on Gitlab and Docker

Adresse d’emploi :
he work will take place in the SLIDE group (https://www.liglab.fr/fr/recherche/equipes-recherche/slide) of the Laboratory of Informatics in Grenoble (LIG). This group develops scalable algorithms and infrastructures for data management, data mining, data linkage, ontology-based data access and crowdsourcing. SLIDE is partner of the European project FAIR-IMPACT (https://fair-impact.eu/fair-impact-expanding-fair-solutions-across-eosc) in which this offer will take place, more particularly in the WP6 that targets to make interoperable the tools and platforms for sharing research data in the European Open Science Cloud (EOSC).

Research engineer or postdoctorate candidate on Semantic Web Technologies application to inteoperability between research data repositories

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : LIG
Durée : 12 motns
Contact : Marie-Christine.Rousset@imag.fr
Date limite de publication : 2023-01-31

Contexte :
PerSCiDO platform (https://perscido.univ-grenoble-alpes.fr/) is an open platform for sharing research datasets in a way that makes them easily findable thanks to a user-friendly interface and semantic metadata enabling in particular to link datasets with related scientific publications and software. PerSCiDO promotes the use of standard identifiers to improve the visibility of datasets and to facilitate their linkage with related publications or source code. PerSCiDO is based on the Semantic Web technologies and the Linked Data principles. As a result, it can be easily extended to new metadata to describe datasets of varied domains. A distinguishing characteristics of PerSCiDO is that the description of datasets with rich metadata is decoupled with the storage od the datasets themselves, which facilitates its interoperability with other platforms.

Sujet :
After getting familiar with the current version of PerSCiDO, the goal is to extend the functionalities of the current version of PerSCiDO in two directions: first, to take into account easily new metadata coming from standards of some domains ; second, to develop the interoperability of PerSCiDO with other existing or future research data repositories.

This position is funded by the European project FAIR-IMPACT (https://fair-impact.eu/fair-impact-expanding-fair-solutions-across-eosc) and the candidate will be hosted in the SLIDE group (https://www.liglab.fr/fr/recherche/equipes-recherche/slide) of the Laboratory of Informatics in Grenoble (LIG). This group develops scalable algorithms and infrastructures for data management, data mining, data linkage, ontology-based data access and crowdsourcing. SLIDE is involved in the FAIR-IMPACT WP6 aiming at making interoperable the tools and platforms for sharing research data in the European Open Science Cloud (EOSC). The candidate will participate to the regular meetings of the FAIR-IMPACT European project, and is expected to be source of proposals within Task 6.1 “Semantic and Technical core interoperability across domains”.He will also have to validate the proofs-of-concepts on a certain number of use cases defined in the project

Profil du candidat :
We are looking for a motivated research engineer or postdoctorate candidate, with a good experience of Semantic Web technologies (RDF, RDFS, SPARQL) and programming skills in pytho, with some experience in using docker and gitlab or github.

Formation et compétences requises :
PhD in computer science.
– Expertise in Semantic Web technologies (RDF, RDFS, SPARQL)
– Expertise in Python (framework Flask)
– Expertise in operating systems (Debian)
– Some experience on Gitlab and Docker

Adresse d’emploi :
he work will take place in the SLIDE group (https://www.liglab.fr/fr/recherche/equipes-recherche/slide) of the Laboratory of Informatics in Grenoble (LIG). This group develops scalable algorithms and infrastructures for data management, data mining, data linkage, ontology-based data access and crowdsourcing. SLIDE is partner of the European project FAIR-IMPACT (https://fair-impact.eu/fair-impact-expanding-fair-solutions-across-eosc) in which this offer will take place, more particularly in the WP6 that targets to make interoperable the tools and platforms for sharing research data in the European Open Science Cloud (EOSC).

Handling missing values based on Deep learning and Attention Mechanism

Offre en lien avec l’Action/le Réseau : MACLEAN/Doctorants

Laboratoire/Entreprise : David, UVSQ
Durée : 6 mois
Contact : mustapha.lebbah@uvsq.fr
Date limite de publication : 2023-02-28

Contexte :
voir le fichier pdf

Sujet :
voir le fichier pdf
Handling missing values based on Deep learning and Attention Mechanism

Profil du candidat :
End of engineering degree, M2 in data science, statistics and/or artificial intelligence. Good experience in programming, especially with the PyTorch/deeplearning4j framework.

Formation et compétences requises :
End of engineering degree, M2 in data science

Adresse d’emploi :
aboratoire David, UFR des sciences, 45 avenue des
Etats-Unis, 78035 Versailles

Document attaché : 202211080645_internshipuvsq.pdf

Caractérisation des formalismes et performances de modèles de simulation de culture en grille pour le riz pluvial en Afrique de l’Ouest

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : TETIS
Durée : 6 mois
Contact : maguelonne.teisseire@teledetection.fr
Date limite de publication : 2022-12-19

Contexte :
Au sein du laboratoire TETIS à Montpellier, un modèle de simulation des cultures (SARRA, Baron et al,, 2005) a été proposé depuis plusieurs années. Il permet, sur la base d’un bilan hydrique dynamique simple, d’estimer l’impact de scénarios climatiques sur une culture annuelle. Sa déclinaison logicielle SARRA-H est spécifiquement adaptée à l’analyse d’impact du climat sur la croissance des céréales sèches (mil, sorgho, maïs, riz) et du rendement potentiel en milieu tropical. La version la plus récente de SARRA, SARRA-O (http://sarra-h-dev.teledetection.fr), introduit la possibilité de spatialiser les simulations de culture selon le principe de modèle de simulation de cultures en grille (gridded crop model, GCM). La littérature présente également des GCM adaptés d’autres plateformes de simulation de cultures (DSSAT, WOFOST, STICS…).
L’objectif de ce stage est de réaliser une comparaison des formalismes et des performances de SARRA-O avec des GCM alternatifs, en prenant comme cas d’étude le riz pluvial en Afrique de l’Ouest. Le riz est la culture vivrière la plus importante au monde, et on estime qu’il constitue l’aliment de base de la moitié de l’humanité. Les pays d’Afrique de l’Ouest sont fortement dépendants du riz pour leurs calories alimentaires. Cependant, une gestion inadéquate de l’eau, des sols et des cultures y compromet toujours la productivité du paddy. La production rizicole y est également menacée par la variabilité des précipitations annuelles, les fluctuations dans les dates de démarrage de saison, et l’augmentation de l’aridité. L’utilisation de GCM dans ce contexte répond donc à des enjeux liés notamment à la sécurité alimentaire.

Sujet :
L’objectif de ce stage est de positionner la suite SARRA-O par rapport à ses concurrents nationaux ou internationaux, en utilisant le riz pluvial comme cas d’étude. Cette comparaison suivra une grille d’évaluation à définir en adéquation avec les standards académiques. De façon plus précise, le travail à réaliser se décompose de la façon suivante :
1. Une familiarisation des différents concepts liés au modèle SARRA-O ;
2. Un état de l’art permettant de lister les modèles similaires à SARRA-O ou partageant les mêmes objectifs d’estimation de rendements ;
3. La définition d’une grille de comparaison des modèles selon principalement les données en entrée (incluant les différents paramètres et la calibration nécessaire selon le type de culture), la méthode adoptée, les données en sortie ;
4. La sélection avec l’équipe encadrante de 2 à 3 modèles alternatifs à SARRA-O ainsi que des mesures d’évaluation adaptées aux modèles choisis ;
5. La réalisation de simulations à partir des modèles sélectionnées, et leur évaluation face à des données observées sur le riz pluvial en Afrique de l’Ouest.

Le cas d’étude s’inscrit dans le cadre de travaux de TETIS sur l’impact du changement climatique sur le rendement du riz en Afrique de l’Ouest. Le/la stagiaire bénéficiera de l’aide d’un autre étudiant qui travaillera sur la calibration du modèle SARRA-O pour le cas du riz pluvial à partir d’un ensemble de données expérimentales d’Afrique de l’Ouest (Sénégal, Côte d’Ivoire) et de Madagascar.

Bibliographie :

Baron, C., Sultan, B., Balme, M., Sarr, B., Traore, S., Lebel, T., Janicot, S., & Dingkuhn, M. (2005). From GCM grid cell to agricultural plot: scale issues affecting modelling of climate impact. Philosophical Transactions of the Royal Society B: Biological Sciences, 360(1463), 2095–2108. https://doi.org/10.1098/rstb.2005.1741

Profil du candidat :
Dernière année Ingénieur agro ou Master 2 ou (stage de césure ou de fin d’études)

Formation et compétences requises :
Le stage exige des connaissances de base en agronomie, une bonne maîtrise du langage de programmation Python (+ librairies Pandas et Numpy), une aisance à la manipulation de fichiers et de l’appétence pour les approches de modélisation.
Une bonne maîtrise écrite de l’anglais (lu) est indispensable.

Adresse d’emploi :
UMR TETIS (Territoires, Environnement, Télédétection et Information Spatiale)
Maison de la Télédetection
500, rue J.F.Breton 34093 MONTPELLIER Cedex 5

Document attaché : 202211071542_Offre de stage état des lieux modélisation.pdf

Internship proposal: Domain Adaptation by using Riemannian Geometry for Remote Sensing Data

Offre en lien avec l’Action/le Réseau : MACLEAN/– — –

Laboratoire/Entreprise : LISTIC, University Savoie Mont-Blanc
Durée : 6 months
Contact : guillaume.ginolhac@univ-smb.fr
Date limite de publication : 2023-04-01

Contexte :
Domain Adaptation is a field of machine learning that consists of developing learning techniques with a different set of training and test data [Moreno-Torres et al., 2012]. This type of methods is
interesting because it allows either to strongly limit the training phase and thus achieve frugality, or to do supervised learning in domains with very little labeled data. A significant number of techniques are used to address this problem such as methods based on optimal transport [Courty et al., 2017]. On the other hand, Riemannian geometry has shown its interest in learning when the features used in classification are subject to constraints such as covariance matrices in EEG [Barachant et al., 2012]. Similarly, in a recent work, it has been shown that these mathematical tools are robust to transformations of the training data [Collas et al., 2022]. The performance loss is then very small if we
consider several features and their associated geometry.

Sujet :
We propose to apply more specifically the tools of Riemannian geometry to the problem of domain adaption. More particularly, we propose to study the interest of deep networks specific to covariance matrices and their associated layers. These networks are based on different Riemannian geometry tools and have shown good performances in computer vision. In particular, we will rely on the following papers [Li et al., 2017, Huang and Gool, 2017] proposing specific layers for covariance matrices. With the help of these papers, the work of the trainee will first consist in assessing the interest of these networks for domain adaptation.

Then we will develop new learning methods to study multivariate image time series in remote sensing. Specifically, we will adapt the networks used in [Rußwurm et al., 2020] by adding covariance matrix specific layers inspired by [Li et al., 2017, Huang and Gool, 2017]. The application goal is then to classify agricultural fields which is practically impossible without temporal information.

Finally, we will test the previously developed approaches on the dataset [pas, ] which contains time series of optical and SAR images over the same period. We will then be able to perform the learning phase on the optical images and measure the performance loss by applying our algorithms on the SAR data. Indeed, many optical data are labeled which is much rarer for SAR images because they are often a little noisier and a little more difficult to analyze for non-specialists. On the other hand, they are very interesting because they allow a better periodicity and give relevant information even at night or in the presence of clouds.

Profil du candidat :
Master/Engineering student with knowledge in statistics and machine learning (having followed courses on these topics is strongly advised). Good coding skills in Python.

Formation et compétences requises :
Master/Engineering student with knowledge in statistics and machine learning (having followed courses on these topics is strongly advised). Good coding skills in Python.

Adresse d’emploi :
LISTIC, Annecy, FRANCE

Document attaché : 202211071629_FrugalDomainAdaptationRADAR.pdf