Offres d’emploi

Offres d’emploi

 Postes    Thèses    Stages 

Postes/PostDocs/CDD

Jan
16
Thu
2025
Ingénieur-e de recherche expert-e en calcul scientifique et intelligence artificielle H/F
Jan 16 – Jan 17 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Institut UTINAM, UMR 6213 CNRS / UMLP
Durée : poste permanent
Contact : jose.lages@univ-fcomte.fr
Date limite de publication : 2025-01-16

Contexte :
L’Institut UTINAM (http://www.utinam.cnrs.fr), UMR 6213, est une unité mixte de recherche sous la double tutelle CNRS et Université Marie et Louis Pasteur (https://www.umlp.fr). Cette unité compte une centaine de personnels et mène des recherches en astrophysique (évolution et structure de la Galaxie, dynamique et composition des petits corps du système solaire), en physique théorique (technologies quantiques, réseaux complexes), en physique moléculaire (calculs ab initio, DFT) et en chimie (matériaux et surfaces fonctionnels, sonochimie et traitement de surfaces).

Le ou la titulaire sera intégré-e à la Plateforme d’Informatique Scientifique de l’Institut UTINAM (PISU), située à Besançon sur le site historique de l’Observatoire des Sciences de l’Univers THETA (https://theta.obs-besancon.fr), et sera sous la responsabilité hiérarchique du responsable de la plateforme. Il ou elle interagira de façon quotidienne avec les chercheurs des 5 équipes de recherche et aura accès aux clusters CPU/GPU de l’unité, de l’Université, ainsi qu’aux supercalculateurs nationaux. Il ou elle bénéficiera d’une visibilité internationale forte via le Modèle de la Galaxie de Besançon (service national d’observation de l’INSU, référence mondiale pour la préparation et l’exploitation des missions spatiales).

Cette fonction ouvre droit à la perception de l’Indemnité de Référence pour les Informaticiens (IRI).
Après 6 mois d’ancienneté, une partie importante des activités sont télétravaillables selon accord avec le responsable et dans le respect de la réglementation CNRS. Formations et accompagnement assurés.

Le poste sur lequel vous candidatez se situe dans un secteur relevant de la protection du potentiel scientifique et technique (PPST) et nécessite donc, conformément à la réglementation, que votre arrivée soit autorisée par l’autorité compétente du MESR.

Sujet :
L’ingénieur-e de recherche aura pour mission de fournir une expertise de haut niveau en calcul scientifique, calcul haute performance et intelligence artificielle au service des projets de l’unité (astrophysique galactique et du système solaire, physique théorique, physique moléculaire), d’assurer la maintenance, l’optimisation et le développement des codes scientifiques – notamment le Modèle de la Galaxie de Besançon -, et d’apporter un appui numérique transversal aux chercheurs, y compris sur les aspects informatiques généraux de l’unité.

Activités
1. Contribuer à la maintenance, l’optimisation et le développement du Modèle de la Galaxie de Besançon (Service National d’Observation de l’INSU) :
– mise à jour des composantes (dynamique, populations stellaires, chimie, extinction),
– intégration de nouvelles contraintes observationnelles stellaires (Gaia, Euclid, LSST, Roman, etc.) et interstellaires (données hyperspectrales CO, HI4PI, SKA, etc.),
– intégrer de nouveaux outils d’intelligence artificielle (machine learning, deep learning), gestion du service web et du client Python

2. Développer et déployer des méthodes d’intelligence artificielle et d’apprentissage machine pour accélérer les simulations, traiter les grands volumes de données et améliorer les modèles (ex. : réseaux de neurones pour classification/cartographie 3D, ML-DFT, LLM, analyse de réseaux complexes…)

3. Apporter un appui expert en calcul haute performance et calcul scientifique aux chercheurs
– Optimisation de codes (parallélisation MPI/OpenMP/CUDA, GPU, Fortran/C++/Python)
– Participer à la rédaction de propositions de projets (ANR, Europe, GENCI), à la valorisation scientifique et à la formation interne sur les méthodes IA/calcul scientifique
– Traitement et analyse de données massives (LSST, Gaia, Euclid…) et/ou hyperspectrales

4. Concevoir, administrer et maintenir bases de données scientifiques de l’unité, outils de workflow et stockage pour les projets de l’unité

5. Contribuer au support informatique transversal de l’unité :
– aide à la gestion des clusters locaux CPU/GPU,
– aide à l’installation/configuration logicielle,
– maintenance d’outils internes

Profil du candidat :
Savoirs :
– Expertise approfondie en calcul scientifique et HPC (parallélisation, GPU, CUDA, MPI, OpenMP)
– Maîtrise avancée de Python scientifique (numpy, scipy, pandas, jax, workflow) et Fortran/C++ (codes legacy)
– Expertise en intelligence artificielle et apprentissage machine (PyTorch/TensorFlow, scikit-learn, réseaux de neurones…)
– Connaissances solides en bases de données et big data (SQL/NoSQL, HDF5, formats astronomiques)
– Connaissances en astrophysique ou en physique computationnelle appréciées
– Connaissances sur les impacts environnementaux du numérique et des leviers de réduction de ces impacts appréciées
– Anglais technique et scientifique : niveau C1 minimum (lu, écrit, parlé)

Savoir-faire :
– Développer, optimiser et maintenir des codes scientifiques complexes sur clusters et supercalculateurs
– Concevoir et entraîner des modèles IA/ML pour applications astrophysiques et physiques
– Gérer le cycle complet de projets calcul/IA (développement, tests, déploiement, documentation)
– Maîtriser des outils de gestion de versions pour le développement de projets numériques. Une connaissance des outils de développement collaboratifs type GitHub, Jenkins, Travis, etc. est souhaitable
– Assister et former des utilisateurs en calcul numérique et IA
– Rédiger documentation et articles scientifiques en français/anglais

Savoir-être :
– Autonomie et initiative
– Rigueur et fiabilité
– Pédagogie et sens du service
– Capacité d’adaptation rapide
– Excellente aptitude au travail interdisciplinaire

Formation et compétences requises :
Réservé aux agents CNRS (fonctionnaires et CDI) et aux fonctionnaires et CDI de droit public

Adresse d’emploi :
https://emploi.cnrs.fr/

https://emploi.cnrs.fr/Offres/MOBINT/UMR6213-MOBINT-P58005/Default.aspx

Jan
31
Fri
2025
ATER en informatique
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire Informatique, Image et Interaction (L3
Durée : 1 an
Contact : cyrille.suire@univ-lr.fr
Date limite de publication : 2025-01-31

Contexte :
L’IUT de La Rochelle recrute un ATER en informatique (section 27), intégration en recherche au laboratoire L3i de La Rochelle Université et enseignement majoritairement en BUT Informatique à l’IUT de La Rochelle

Sujet :
L’IUT Informatique de La Rochelle recrute un ATER à temps complet en 27e section à compter du 1er de janvier
2025. Le (la) candidat(e) recruté(e) devra intervenir sur plusieurs enseignements du programme national du BUT
Informatique, parmi :
– Gestion des données : relationnelles et non structurées
– Génie logiciel et développement d’applications
– Architecture des systèmes et réseaux

Le(la) candidat(e) devra avoir une activité de recherche avérée permettant de s’intégrer dans l’une des trois équipes
de recherche du Laboratoire Informatique, Image, Interaction (L3i), laboratoire de recherche du domaine des
sciences du numérique de La Rochelle Université.

Se référer au profil détaillé

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
Département informatique, IUT de La Rochelle.
Laboratoire L3i, La Rochelle Université

Document attaché : 202411040924_PROFIL-POSTE-ATER-INFORMATIQUE-1.pdf

Post-doc Remote sensing interferometic self-supervised learning for landslide and earthquake detection
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ISTerre Grenoble / Lamont Columbia University
Durée : 24
Contact : sophie.giffard@univ-grenoble-alpes.fr
Date limite de publication : 2025-01-31

Contexte :
This post-doc is part of the ANR EDAM: Earth Deformation from Automatic Mapping. Most of geological natural hazards such as earthquakes and landslides remain, up to now, unpredictable although the processes governing them are today well apprehended thanks to advances in geophysics. In South America, while the volcanoes and the subduction megathrust are well identified, the majority of crustal faults (i.e. associated to continental crust deformation and not to subduction megathrusts) and landslides are not precisely mapped or not even known. The inventory task is largely incomplete as it is currently done manually in the field or by visual analysis of remote sensing data by geological surveys. It is an impossible task regarding the km-scale ongoing deformations all over South America. In particular, there is a need to locate the active slow ground movements. Thanks to Synthetic Aperture Radar (SAR) imaging by several SAR missions (such as the Sentinel-1 constellation), it is now possible to extract ground deformations at the centimeter accuracy since 2015. The recently processed Interferometric SAR (InSAR) time series (from the
complex pipeline by Thollard et al. 2021) covering in particular the Andes for the period 2014-21 provide unprecedented coverage at the continental scale. Yet, the automation of deformation detection, in particular at a large scale, has only been scarcely tackled.

Recent machine learning techniques have revolutionized the fields of natural language processing and then image processing by constructing foundation models able to be trained using unlabelled data itself
(usually a large set) to generate supervisory signals. The learned extractor generates relevant embeddings, which can then be used for various downstream tasks having only a small number of labelled samples. This technique has been very recently successfully applied for remote sensing data: the same geospatial foundation model can be the backbone of different applications, such as crop classification and flood
mapping (Jakubik et al. 2023). Yet, they do not give satisfactory results for earth deformation applications, because: 1) the acquisitions (i.e. image bands) to rely on are largely different from most of other earth
observation tasks, usually made to analyze land cover (using only optical and hyperspectral bands) while we are interested in structure and shape (where topography is key) and displacement (from InSAR); 2)
the extracted relevant features, i.e. embeddings, are largely unrelated to earth deformation. Indeed, earth deformation is usually a low signal mostly independent to land surface appearance.

Sujet :
The goal of this post-doc is to develop a foundation model able to capture active deformation features from InSAR. In particular, we want to combine both optical-related (RGB, topography) and radar-related (wrapped interferograms and temporal coherence map). This self-supervised model will then be used directly for two downstream tasks, the identification of faults (earthquake ruptures and creeping faults) and the detection of landslide movements (slow-moving landslides and landslides ruptures). We already have a recent database of slow-moving landslides visible in InSAR over South Peru, and the InSAR as well as DEM over the region has already been processed at ISTerre. Finally, the post-doc will interact (with a visit to Peru) with Peruvian partners in order to interpret the results and transfer the knowledge and the codes.

Profil du candidat :
We look for a motivated post-doctoral fellow, who did his/her PhD in either deep learning image processing, remote sensing, or geoscience. The post-doc will be located at ISTerre, Grenoble, within a team of many interdisciplinary students and post-docs. On top of the stimulating remote sensing environment within ISTerre, he/she will work closely with S. Giffard-Roisin, who will be on leave at Columbia University for the beginning of the contract. A few-month visit to NY is thus planned, depending on the dates and contract duration.

Formation et compétences requises :
This interdisciplinary work necessitates the knowledge of either A) deep learning and in particular recent image processing methods with cluster computing skills, and/or B) remote sensing and in particular radar interferometry. Geoscience background would be a plus, or at least a curiosity towards geoscience applications. Of course, good communication skills are fundamental, as well as a good English knowledge. Spanish would be a plus but not mandatory.
The start date is between March 2025 and November 2025.
Send me a CV with an email summarizing few lines of context of why you want to apply as soon as possible.

Adresse d’emploi :
ISTerre, Université Grenoble Alpes

Feb
1
Sat
2025
Offre de stage/thèse GENAI for causality
Feb 1 – Feb 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : CRAN-Université de Lorraine
Durée : 36 mois
Contact : marianne.clausel@univ-lorraine.fr
Date limite de publication : 2025-02-01

Contexte :
Causality and more generally eXplainable AI (XAI) is one of the hot current topics of the AI scientific community, with many applications in medicine, material sciences, environment, marketing…
.
We invite for applications for a PhD thesis position within the CAUSALI-T-AI project of PEPR IA project funded by the ANR (2023-2029) about generative AI for causality (more details below). The thesis will take place in the Simul Research Group of Centre de Recherche en Automatique de Nancy. International scientific collaborations with US can also be planned. We have strong connections with T. Adali’s research group who is the scientific leader of the Machine Learning for Signal Processing Laboratory in the University of Maryland (Baltimore, USA)

Sujet :
In machine learning, generative models allow one to model the probabilistic behavior of a wide range of physical systems, including applications in finance, medical imaging, climate science, among others. They allow one to perform tasks, including generating new data, but also the inference of latent (unobserved) quantities (e.g., the presence or not of a disease) and to solve other tasks such as time-series forecasting.
Recent advances in generative models have been strongly supported by advances in the field of deep neural networks, leading to great experimental performance. However, they also suffer from one of the main shortcomings of deep learning methods, namely, the theoretical understanding of their behavior which is still an open question (e.g., uniqueness of representations, approximation capability, generalization, etc.).
Such theoretical guarantees are very important for generative models when they are used for inference tasks: in applications such as in medicine, it is crucial to know that a representation learned by the model is unique or stable. Moreover, on the one hand, models that are unique such as (nonlinear) structural equation models (SEMs) can reveal the causal mechanisms of the underlying physical system. On the other hand, such results also guarantee that statistical inference or forecasting results will not suffer significant changes (which could change the result of a diagnostic) due to, e.g., different choices of initializations in an optimization algorithm, or small changes in selected hyperparameters. Discovering a unique generative model in the presence of unobserved latent factors of variation is also a cornerstone of other aspects of causal reasoning, as it is useful in the computation of counterfactuals.
The general goal of this project is to solve practical statistical inference tasks using generative models while:
1) from a modeling perspective, addressing some nonidealities in the data, such as nonstationariety, or differences between statistical distributions or acquisition conditions of different measurements (e.g., precipitation data acquired over different geographical locations, medical data from different groups of subjects, etc.),
2) from an algorithmic perspective, developing solutions that take those nonidealities into account and can provide better results when such conditions are met in practice, and 3) studying the theoretical properties of the models in a general context, including, for instance, uniqueness, stability and approximation capabilty, investigating different hypothesis that can support such results and also some choices related to the algorithm (e.g., what properties weight matrices in rank neural networks need to satisfy, what do we need to assume about the distribution of the data, etc.)

Profil du candidat :
Master Student in Computer Science/Machine Learning or Applied Math

Formation et compétences requises :
machine learning-data science

Adresse d’emploi :
Simul Research Group @ CRAN

Faculté des Sciences et Technologies

Campus, Boulevard des Aiguillettes

54506 Vandœuvre-lès-Nancy

Website : https://cran-simul.github.io/

Document attaché : 202411011605_GenAI-Causality.pdf

Feb
21
Fri
2025
Recutement MdC à Télécom SudParis – Institut Polytechnique de Paris
Feb 21 – Feb 22 all-day

Offre en lien avec l’Action/le Réseau : SimpleText/– — –

Laboratoire/Entreprise : Télécom SudParis
Durée : CDI
Contact : djamel.belaid@telecom-sudparis.eu
Date limite de publication : 2025-02-21

Contexte :

Sujet :
Télécom SudParis,
École de l’Institut Mines-Télécom (IMT) et
Membre de l’Institut Polytechnique de Paris (IP Paris)

Télécom SudParis, recrute un(e) Maître(sse) de Conférences en informatique.

La fiche de poste ainsi que le lien pour candidater sont accessibles ici :
Fr : https://institutminestelecom.recruitee.com/o/mc-informatique-inf
(En: https://institutminestelecom.recruitee.com/l/en/o/mc-informatique-inf)

Date limite de dépôt des candidatures : 21 février 2025
Date prévue pour le début du contrat : septembre 2025 (flexible)
Localisation : Campus de Télécom SudParis, Évry, France

Contacts : Djamel Belaïd (djamel.belaid@telecom-sudparis.eu), Sophie Chabridon (sophie.chabridon@telecom-sudparis.eu)

Merci de relayer l’annonce auprès de vos contacts potentiellement intéressés.

————————

Télécom SudParis is hiring an assistant/associate Professor (Maître de Conférences)
in Computer Science.

The job description and the link to apply are available here:
Fr: https://institutminestelecom.recruitee.com/o/mc-informatique-inf
(En: https://institutminestelecom.recruitee.com/l/en/o/mc-informatique-inf)

Application deadline: February 21, 2025
Expected starting date: September 2025 (flexible)
Location: Campus of Télécom SudParis, Évry, France

Main contacts: Djamel Belaïd (djamel.belaid@telecom-sudparis.eu), Sophie Chabridon (sophie.chabridon@telecom-sudparis.eu)

Thank you for sharing the announcement with potentially interested contacts.

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
Télécom SudParis, Palaiseau, Évry

Feb
25
Tue
2025
L’institut ACSS de l’Université PSL recrute 1 ingénieur de recherche en science des données pour les sciences sociales
Feb 25 – Feb 26 all-day

Offre en lien avec l’Action/le Réseau : SimpleText/– — –

Laboratoire/Entreprise : Université de Paris-Dauphine – PSL
Durée : 1 an renouvelable
Contact : bruno.chavesferreira@dauphine.fr
Date limite de publication : 2025-02-25

Contexte :
Créé au sein de l’Université Paris Sciences et Lettres (PSL) et hébergé à Paris Dauphine, l’Institut « Applied Computational Social Sciences » a pour vocation de renforcer la recherche sur les grandes problématiques sociétales (cohésion politique et sociale, transition écologique, transformation numérique, efficacité et compétitivité économique) en articulant sciences des données et sciences sociales.

L’Institut collecte et traite à large échelle des données hétérogènes tant pour permettre des avancées scientifiques que pour contribuer à éclairer le débat public et la décision. Il réunit sur une équipe pluridisciplinaire de chercheurs en sciences sociales et s’appuie sur une équipe d’ingénieurs en sciences de données qui apportent leurs expertises pour constituer des bases de données originales et opérer des traitements complexes. Ces projets sont initiés et portés par des laboratoires du CNRS, de Dauphine, de l’ENS, de l’INSP et des MinesParis-Tech. Les résultats des travaux ont vocation à être largement diffusés auprès de partenaires institutionnels et du monde économique.

Sujet :
Dans le cadre du développement de l’Institut ACSS, l’Université PSL recrute un ingénieur de recherche (IR) en science des données. Elle/il sera chargé(e) de mettre en œuvre des méthodes et outils de collecte et traitement de données issues de sources variées (Web, bases de données institutionnelles, archives, etc.). Elle/il aura également la responsabilité de veiller au respect des bonnes pratiques en matière de développement et de gestion du code et des données. Enfin, elle/il contribuera au développement de modèles statistiques ou d’apprentissage automatique (notamment dans le domaine du traitement automatisé de la langue naturelle).

Profil du candidat :
Diplôme d’ingénieur en informatique (ou mathématiques/statistiques) avec au moins 3 ans d’expérience ou titulaire d’un doctorat avec une thèse dans le domaine.

Formation et compétences requises :
Expérience dans le développement de réseaux de neurones profonds et autres modèles statiques avancés appliqués au traitement automatisé du langage sur de larges corpus.
Maîtrise des écosystèmes Python et/ou R dédiés à la science des données.
Plus spécifiquement en Python, maîtrise de numpy, pandas, pytorch et l’environnement hugging face.
En R, maîtrise du tidyverse, de tidymodels et des bibliothèques associées, ainsi que de torch.
Maîtrise des bases de données relationnelles et NoSQL.
Compréhension des méthodes scientifiques des sciences humaines et sociales.

Adresse d’emploi :
Université de Paris Dauphine – PSL
Pl. du Maréchal de Lattre de Tassigny, 75016 Paris

Document attaché : 202410250904_Ingenieur_IR_ACCS_2024_2_fr.pdf

Feb
26
Wed
2025
EC en Science des Données, Oniris VetAgroBio
Feb 26 – Feb 27 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ONIRIS, VetAgroBioNantes
Durée : CDI
Contact : veronique.cariou@oniris-nantes.fr
Date limite de publication : 2025-02-26

Contexte :
L’École Nationale Vétérinaire, Agroalimentaire et de l’Alimentation (Oniris VetAgroBio Nantes) forme plus de 1200 élèves, en proposant notamment des formations correspondant aux métiers de technicien supérieur et d’ingénieur dans les domaines agroalimentaire, sciences de l’alimentation et biotechnologies, ainsi qu’aux métiers de vétérinaire.
Dans une optique de renforcement de ses compétences, Oniris souhaite recruter un(e) candidat(e) avec un profil Science des données.
Cet enseignant-chercheur (H/F) sera rattaché à l’unité pédagogique Mathématique, Statistique et Informatique (MSI) composée de cinq enseignants-chercheurs et un enseignant. Sur le plan de la recherche, il intégrera l’USC 1381 INRAE/Oniris StatSC dont les champs d’application s’inscrivent principalement en sensométrie et en chimiométrie.

Sujet :
En première et deuxième année du cycle ingénieur, l’enseignant-chercheur interviendra dans les enseignements en science des données couvrant la statistique appliquée, les mathématiques et l’informatique et dans des enseignements pluri disciplinaires. En troisième année du cycle ingénieur, il/elle interviendra au sein de l’approfondissement FOO’DS (Formulation, Optimisation, Organoleptique et Data Science) et pourra s’impliquer dans les enseignements des Masters co-accrédités.
L’enseignant-chercheur sera intégré à l’USC INRAE/Oniris StatSC (Statistique, Sensométrie et Chimiométrie). La recherche qui y est menée est à caractère méthodologique et finalisé. Elle est principalement orientée vers l’analyse de données multiblocs, la classification, la réduction de la dimensionnalité et la modélisation dans des espaces de grande dimension. Un intérêt particulier sera porté sur la capacité du (de la) candidat(e) à mobiliser des approches par apprentissage statistique et apprentissage profond pour mieux répondre à de telles problématiques.

Profil du candidat :
Il est attendu des aptitudes pédagogiques et scientifiques avérées, la capacité à être moteur et force de proposition, ainsi qu’une appétence pour l’interdisciplinarité et les interactions avec le monde de l’entreprise et de la recherche dans le domaine des sciences de l’alimentation.

Formation et compétences requises :
L’enseignant-chercheur devra être titulaire d’un doctorat dans le domaine de la statistique ou de la science des données.

Adresse d’emploi :
Oniris VetAgroBio,
Campus Science de l’aliment
Rue de la Géraudière, CS 82225, 44322 Nantes

Document attaché : 202502251518_MC_Science des donnees.pdf

Mar
1
Sat
2025
Ontologist / Data Scientist / Knowledge Designer
Mar 1 – Mar 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LESIA, Observatoire de Paris-PSL
Durée : 18 mois
Contact : baptiste.cecconi@obspm.fr
Date limite de publication : 2025-03-01

Contexte :
Le projet OPAL (Ontology Portal for Astronomy Linked-data) vise à créer une instance OntoPortal (https://ontoportal.org) pour l’astronomie, nommée ontoportal-astro, afin de fédérer et organiser les vocabulaires et ontologies des différentes sous-communautés scientifiques liées à l’astronomie, la physique des particules, et la planétologie et l’héliophysique. Ce projet s’inscrit dans un cadre de collaboration avec des initiatives telles que ESCAPE (https://projectescape.eu), EOSC (https://eosc.eu) et FAIR-IMPACT (https://fair-impact.eu), pour améliorer l’interopérabilité des données scientifiques à travers des artefacts sémantiques FAIR.

Sujet :
Missions principales :
● Développement d’ontologies :
Développer et/ou consolider des ontologies et des artefacts sémantiques FAIR pour les communautés scientifiques impliquées dans le projet OPAL (astronomie, héliophysique, sciences planétaires, physique des particules).
● Curation de données sémantiques :
Coordonner la gestion et la curation des artefacts sémantiques dans ontoportal-astro. Veiller à la conformité aux principes FAIR (Findable, Accessible, Interoperable, Reusable).
● Accompagnement des équipes :
Travailler en collaboration avec les experts du domaine pour identifier et formaliser les besoins en matière d’ontologies. Accompagner les communautés scientifiques dans le développement, l’intégration et l’utilisation des ontologies.
● Gestion des métadonnées :
Assurer la qualité et la gestion des métadonnées des ontologies en utilisant des standards comme SKOS, OWL et RDF. Proposer des méthodes d’évaluation FAIR et des rapports d’amélioration.
● Maintenance technique :
Collaborer avec les équipes techniques pour maintenir et optimiser les services d’accès aux ontologies (SPARQL, API, etc.), et garantir l’intégration avec d’autres outils de la communauté scientifique.

Profil du candidat :
Master ou diplôme équivalent en informatique, sciences de l’information, ou domaine connexe, ou PhD en science de l’information.
● 2 à 5 ans d’expérience en gestion de données, conception d’ontologies ou modélisation des connaissances.
● Excellente capacité de communication pour collaborer avec des scientifiques de différentes disciplines.
● Autonomie, capacité à prendre des initiatives et à résoudre des problèmes techniques complexes.

Formation et compétences requises :
● Connaissances en ontologies et modélisation des connaissances :
Solide expérience dans la création et l’utilisation d’ontologies dans un environnement scientifique (compétences en OWL, RDF, SKOS).
● Développement et intégration d’ontologies :
Expérience avec des plateformes similaires à OntoPortal, et familiarité avec des standards du Web sémantique.
● Accompagnement des utilisateurs :
Expérience dans la collaboration avec des communautés scientifiques pour identifier les besoins sémantiques et formaliser des ontologies adaptées.
● Gestion des données scientifiques :
Maîtrise des pratiques de gestion et de curation de données dans un contexte de recherche, avec une attention particulière à l’interopérabilité et à la conformité FAIR.
● Outils informatiques :
Connaissance des API Web, SPARQL endpoints, et autres outils d’indexation et de visualisation des ontologies.

Adresse d’emploi :
LESIA, Observatoire de Paris. 5 Place Jules Janssen, 92190 Meudon, France

Document attaché : 202412061244_OPAL position Observatoire de Paris.pdf

Postdoctoral researcher, IGDR, Rennes, France: use of deep learning and simulation to extract geometric parameters of filaments in microscopy images.
Mar 1 – Mar 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Institute of Genetics and Development of Rennes
Durée : 24 months
Contact : helene.bouvrais@univ-rennes.fr
Date limite de publication : 2025-03-01

Contexte :
We wish to welcome a highly motivated postdoctoral researcher in our multi-disciplinary team at the Institute of Genetics and Development of Rennes (https://igdr.univ-rennes.fr/en/). Research in the team focuses on the robustness of cell division through fluorescence microscopy and quantitative biophysical approaches, using the nematode model organism Caernorhabditis elegans. The ongoing development of an automated microscope allows the team to extend its studies to human cell lines in culture, without synchronization, a key requirement for the studying division robustness.

Sujet :
The recruited postdoctoral researcher will be an integral part of the on-going research project, funded by the ANR and focused on the study of the regulatory role of microtubule rigidity in cell division. He/she will work on the development of a tool based on artificial intelligence to extract microtubule curvatures from 3D fluorescence microscopy images. In particular, the candidate will use synthetic image generation through simulation (e.g., Cytosim) and deep learning techniques. For this, he/she will have access to local computing servers as well as remote ones (e.g., Jean Zay). Filament curvature measurements will help reveal potential disruptions in microtubule rigidity during genetic perturbation or across cell lines with deregulated expression of candidate proteins involved in regulating microtubule rigidity.

Profil du candidat :

Formation et compétences requises :
– Hold a PhD degree in computer science, machine learning or applied mathematics.
– Have strong theoretical and practical skills in deep learning.
– Master programming languages such as Python.
– Have proven experience in implementing deep learning in image analysis.
– Be able to work collaboratively within a research team ; be a team player.
– Have strong organizational and communication skills, including the ability to express oneself and write in English.
– Ability to work independently.
– Have an interest in working in a multidisciplinary environment (cellular biology, fluorescence microscopy, soft matter physics, bioinformatics)

Adresse d’emploi :
IGDR (Institute of Genetics and Developemnt of Rennes), CNRS, Univ. Rennes, UMR 6290
2 avenue du Professeur Léon Bernard, 35000 Rennes cedex, France

Document attaché : 202501031145_Annonce_post-doc_informatique_ANR_Micenn_EN.pdf

Proposal for a 3-year PhD or 2-year postdoctoral contract in AI for healthcare
Mar 1 – Mar 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Equipe HeKA (Inria, Inserm, Univ Paris Cité)
Durée : 3 ou 2 ans
Contact : adrien.coulet@inria.fr
Date limite de publication : 2025-03-01

Contexte :
The 2-year position will take place in the HeKA team (Inria, Inserm, Université Paris Cité), physically located at PariSanté Campus, 2-10 rue d’Oradour-sur-Glane, 75015 Paris. The work is a collaboration between the HeKA team, and the Pompidou hospitals (HEGP) of the AP-HP (Assistance Publique – Hôpitaux de Paris).

This project is part of the PEPR Digital Health project named ShareFAIR, funded by the French Research National Agency.

Sujet :
“Step-by-step guidance to clinical decision, by combining data- and knowledge-driven approaches”

see associated pdf file for more info

Submit your application at https://jobs.inria.fr/public/classic/en/offres/2024-08428

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
PariSanté Campus
2-10 rue d’Oradour-sur-Glane
75015 Paris

Document attaché : 202412041908_phd_or_postdoc_subject_sharefair.pdf

Mar
15
Sat
2025
11 Postes ATER Univ. Montpellier – DL 3 mars
Mar 15 – Mar 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Univ. de Montpellier
Durée : 12 mois
Contact : marianne.huchard@lirmm.fr
Date limite de publication : 2025-03-15

Contexte :

Sujet :
Plusieurs postes d’ATER Informatique (section 27) sont ouverts à l’Université de Montpellier pour l’année 2025-2026 (prise de fonction : 1er septembre 2025).

Les personnes recrutées seront affectées dans une des équipes de recherche du département informatique du LIRMM. Nous les invitons à contacter les responsables de la ou des équipes ciblées (adresses mail disponibles sur les pages web respectives des équipes : lien).

Concernant l’enseignement, plusieurs composantes d’enseignement sont concernées :

5 postes à la Faculté des Sciences (contact : Stéphane Bessy )
Mots-clés communs à tous les postes : Informatique.
1 poste à l’IUT de Béziers (contact : Benoît Darties )
Mots-clés : Informatique, 3D, Réseaux.
Fiche de poste spécifique
2 postes à l’IUT Montpellier-Sète (contact : Gilles Trombettoni )
Mots-clés communs à tous les postes : Informatique.
3 postes à Polytech Montpellier (contact : Christophe Fiorio et Vincent Berry )
Mots-clés pour le poste n°1 : Informatique, Internet, Environnements virtuels, Architecture des machine et des systèmes, Qualité.
Mots-clés pour le poste n°2 : Informatique, Internet, Génie Logiciel et programmation, Architecture des machines et des systèmes, Performance.
Mots-clés pour le poste n°3 : Informatique, Bases de données, Bigdata, Data analytics.

Les personnes candidates peuvent prendre contact avec les composantes d’enseignement pour plus d’informations.

Les informations pour candidater sont disponibles sur la page suivante : https://umontpellier.nous-recrutons.fr/poste/wzk6smtbbj-ater-section-27-informatique-fh/.

Date limite de candidature : 3 mars.

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
Université de Montpellier

Ingénieur-e statisticien-ne pour données multi-omiques
Mar 15 – Mar 16 all-day

Offre en lien avec l’Action/le Réseau : TIDS/– — –

Laboratoire/Entreprise : INRAE, unité MIAT
Durée : poste de fonctionnai
Contact : claire.hoede@inrae.fr
Date limite de publication : 2025-03-15

Contexte :
INRAE, Institut national de recherche pour l’agriculture, l’alimentation et l’environnement, est un organisme public de recherche qui réunit 12 000 collaborateurs au sein de 272 unités réparties sur 18 centres en France. Premier organisme mondial spécialisé sur l’ensemble agriculture – alimentation – environnement, INRAE joue un rôle clé pour accompagner les transitions nécessaires face aux grands défis planétaires.

Face à l’augmentation de la population, aux enjeux de sécurité alimentaire, au changement climatique, à la raréfaction des ressources et au déclin de la biodiversité, INRAE s’engage à développer des solutions scientifiques et à accompagner l’évolution des pratiques agricoles, alimentaires et environnementales.

Sujet :
https://jobs.inrae.fr/concours/concours-externes-ingenieurs-cadres-techniciens-h-f/ir25-mathnum-1

La plate-forme bio-informatique Genotoul est une équipe de l’Unité MIAT (Mathématiques et Informatique Appliquées INRAE Toulouse). Elle est un membre actif du GIS Genotoul et contribue à développer les ressources nécessaires aux avancées des programmes scientifiques, accompagne les collaborateurs biologistes pour leurs analyses ainsi que les plates-formes de production de données sur l’hébergement de leurs systèmes d’information. Elle contribue à l’animation scientifique et à la formation en informatique, bioinformatique et statistique. Elle est équipée d’une infrastructure matérielle et logicielle adaptée et performante pour la communauté bio-informatique. En 2024, elle héberge près de 1050 comptes utilisateurs, maintient plus de 800 logiciels du domaine, et met à jour régulièrement plus de 140 banques de données. Elle contribue aux projets de recherche par l’industrialisation de certains traitements (RNAseq, assemblage, annotation et métagénomique), l’accompagnement à la mise en oeuvre de nouvelles technologies dans le cadre de projets innovants et le soutien à la résolution de questions spécifiques nécessitant des développements originaux.
Vous serez en charge de répondre aux besoins croissants concernant l’analyse et l’intégration de données omiques multi-échelles. Vous interviendrez en particulier dans les projets dont la complexité du plan expérimental ou du type de données acquises nécessite une expertise en statistique. Vous serez aussi en charge de développer des outils et des méthodes d’analyses statistiques et de modélisation à partir de jeux de données hétérogènes issues d’analyses phénotypiques (éventuellement haut débit), transcriptomique, protéomique, métabolomique, etc. acquises sur les mêmes individus pour automatiser certaines analyses statistiques récurrentes, qu’elles soient standard ou avancées. En outre, vous interviendrez sur :
– la formation en statistique et plus généralement en « data science » (incluant des aspects de programmation) des biologistes du centre INRAE Toulouse Occitanie ;
– la formation aux bonnes pratiques de programmation avancée R ;
– l’appui aux biologistes sur l’intégralité du cycle de vie de la donnée ;
– la veille scientifique pour l’intégration de données et l’analyse des nouveaux types de données qui seront produites par le séquençage haut-débit dans les prochaines années ;
– la définition des procédures qualité liées à ces activités, leur rédaction et leur mise en œuvre.

La réussite à ce concours vaut qualification informatique. Le poste ouvre droit à une prime informatique en qualité d’analyste ou de chef de projet selon expérience.

Profil du candidat :
Vous avez une formation en mathématiques appliquées et statistique.
Votre profil est celui d’un-e biostatisticien-ne déjà confronté-e à l’analyse de données biologiques, ayant une formation en mathématiques appliquées et des expériences de leur mise en oeuvre pour l’analyse et l’intégration de données omiques.
Vos compétences incluent des connaissances en analyse multivariée des données, en classification non supervisée, sur les modèles classiques en statistique, en programmation R (voire python et C++) et en méthodes d’intégration de données multi-omiques.
Des compétences en inférence et analyse de réseaux, méthodes de machine learning, analyses de séries temporelles, analyses et outils pour l’étude de l’enrichissement fonctionnel seraient un plus.
Une capacité de gestion de projets et d’interaction avec les biologistes partenaires et un goût prononcé pour le travail en équipe sont nécessaires. Des compétences sur la gestion des données, sur la reproductibilité et en calcul sur cluster sont un plus souhaitable.

Formation et compétences requises :
Master, diplôme d’études approfondies, diplôme d’études supérieures spécialisées, diplôme d’ingénieur.

Adresse d’emploi :
Castanet Tolosan

Poste de postdoc ou doc : aide à la décision clinique, Inria Paris/APHP
Mar 15 – Mar 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : HeKA (Inria, Inserm, Univ. Paris Cité)
Durée : 2 ou 3 ans
Contact : adrien.coulet@inria.fr
Date limite de publication : 2025-03-15

Contexte :
Nous cherchons un postdoc (2 ans) ou un doctorant (3 ans)
pour rejoindre l’équipe HeKA (Inria Paris, Inserm & Université Paris Cité) et travailler sur l’aide à la décision clinique à partir de données de santé et de LLM.
Renseignements : adrien.coulet@inria.fr et bastien.rance@aphp.fr
Date limite de candidature : 15/3/2025
Date limite de prise de poste : 1/6/2025
N’hésitez pas à transmettre autour de vous !

Sujet :
Description du sujet : https://lnkd.in/g_NuixAP

Profil du candidat :
-Passionnée par la science des données biomédicales et ses applications,
-Prête à l’interdisciplinarité,
– Avec des facilités de communications

Formation et compétences requises :
Apprentissage par renforcement et/ou grands modèles de langues.

Adresse d’emploi :
PariSanté Campus, 2-10 rue d’Oradour-sur-Glane, 75015 Paris

Document attaché : 202502241851_phd_or_postdoc_subject_sharefair.pdf

Postes E/C en Informatique au LIP6 – Sorbonne Université
Mar 15 – Mar 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIP6 – Sorbonne Université
Durée : durée indéterminée
Contact : bernd.amann@lip6.fr
Date limite de publication : 2025-03-15

Contexte :

Sujet :
Plusieurs postes en informatique sont ouverts cette année au LIP6/Sorbonne Université : https://www.lip6.fr/recherche/emplois.php

Deux postes relèvent en particulier des thématiques du GDR MaDICS :

– MCF “IA et approches hybrides pour le traitement et l’analyse de données complexes”

https://www.lip6.fr/recherche/emploi-fiche.php?ident=E135

– PR “Modèles et algorithmes pour la décision individuelle et collective”

https://www.lip6.fr/recherche/emploi-fiche.php?ident=E134

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
LIP6 – Sorbonne Université
4 place Jussieu
75252 Paris Cedex 05

Mar
28
Fri
2025
Postdoctoral position @ CNES : on the use of machine learning methods to boost LISA’s Global Fit
Mar 28 – Mar 29 all-day

Offre en lien avec l’Action/le Réseau : DatAstro/– — –

Laboratoire/Entreprise : CNES
Durée : 1 an (renouvelable)
Contact : antoine.basset@cnes.fr
Date limite de publication : 2025-03-28

Contexte :
Space missions have always recorded electromagnetic signals, from infrared light to gamma rays. Expected to launch in 2037, ESA’s large-class mission LISA (Laser Interferometer Space Antenna) will survey gravitational wave signals from space. As the world’s first in-orbit instrument to probe space-time itself, this is one of the most ambitious science missions ever. LISA promises a wealth of new science, allowing us to test our understanding of general relativity and to open a new window for astrophysics and cosmology. The data analysis for this mission will have to disentangle superposed signals from a variety of astrophysical sources, as well as modeling the instrumental noise. This Global Fit is to be tackled in a Bayesian inference framework. The computational challenge will be massive, expected to be about an order of magnitude heavier than the data processing of the recent ESA mission Euclid, in optimistic scenarios. As a consequence, the scientific community is looking for technological and algorithmic breakthroughs, e.g. relying on GPUs, sparsity-based modeling or artificial intelligence.

Sujet :
LISA is expected to detect several kinds of gravitational wave sources, such as white dwarf, neutron star or black hole binaries orbiting in very different configurations. White dwarf binaries in our galaxy (known as galactic binaries, GBs) should be the most numerous sources and have relatively simple signals (quasi-monochromatic); massive black hole binary mergers (MBHBs) will provide a handful of very loud coalescence signals, while extreme mass ratio inspirals (EMRIs) are the most complex and come with a huge uncertainty on the number of occurrences over LISA’s lifetime. In fact, little is known on EMRIs’ analysis, and they could just as easily be negligible or dominate the Global Fit. Certainly, LISA’s data stream will be a continuous superimposition of these many signals together with instrumental noise. The inference of the parameters of each source will require source separation, complicating the estimation of their posterior distributions which is already challenging for isolated gravitational events. When separation is not possible (most notably for GBs), the number of superimposed sources becomes an unknown and the signals themselves form a confusion background comparable to noise; trans-dimensional analysis is then required, which yields additional complexity.

To tackle the challenge of the Global Fit, the currently envisioned approach relies on a Markov chain Monte Carlo (MCMC) strategy, with block Gibbs sampling across the classes of sources (and the noise level) to reduce the complexity. Even using this trick, existing pipeline prototypes are computationally expensive and scale badly. In addition to the computational complexity of the MCMC itself, convergence is hindered by the difficulty of initializing the GlobalFit efficiently, and that of modeling effectively the noise and stochastic background signal. One way to radically speed up computation and lower resource consumption is to find shortcuts in the algorithms. Various Machine Learning (ML) approaches recently showed promising results for greatly accelerating the Global Fit, such as likelihood-free inference, which bypasses the likelihood computation completely, or surrogate-based source search, which rely on extremely fast approximate models to separate sources and initialize the GlobalFit close to the solution. The proposed PostDoc project aims at developing and benchmarking ML methods to boost the Global Fit convergence.

Profil du candidat :
PhD on gravitational waves and/or machine learning methods.

Your application must include
– a recommendation letter from your Ph.D. supervisor
– a detailed CV including university education and work experience
– a list of publications
– a 2-page description of the work undertaken during the course of your PhD.

For more Information, contact : Directeur de Recherche antoine.basset@cnes.fr

Submit the complete application online (Apply) before March 14th, 2025 Midnight Paris time.

Webpage : https://recrutement.cnes.fr/fr/annonce/3487221-25-285-on-the-use-of-machine-learning-methods-to-boost-lisa-s-global-fit-31400-toulouse

Formation et compétences requises :

Adresse d’emploi :
CNES, Toulouse.

Your application must include a recommendation letter from your Ph.D. supervisor, a detailed CV including university education and work experience, a list of publications, a 2-page description of the work undertaken during the course of your PhD.

For more Information, contact : Directeur de Recherche antoine.basset@cnes.fr

Submit the complete application online (Apply) before March 14th, 2025 Midnight Paris time.

Mar
31
Mon
2025
3D Human Motion Diffusion Model
Mar 31 – Apr 1 all-day

Offre en lien avec l’Action/le Réseau : TIDS/– — –

Laboratoire/Entreprise : Laboratoire ICube, Strasbourg
Durée : 6 mois
Contact : seo@unistra.fr
Date limite de publication : 2025-03-31

Contexte :
Human motion generation is a key task in computer graphics, crucial for applications involving virtual characters, such as film production or virtual reality experiences. Recent deep learning methods, particularly generative models, started to make significant contributions in this domain. While early neural methods focused on the unconditional generation of vivid and realistic human motion sequences, more recent methods guide the motion generation using various conditioning signals, including action class, text, and audio. Among them, the diffusion-based model has shown significant success, dominating research frontiers.

Sujet :
Motivated by these recent successes, we will develop action-conditioned human motion generator based on a diffusion model. In particular, we will aim at the generation of daily actions in residential settings, in the view of augmenting training data for the action recognition models. To achieve this goal, we will deploy a diffusion-based motion generation, based on our previous works. To condition the generation using an action class or a text description, we will adopt CLIP as a text encoder to embed the text prompt and use a trainable tensor as embeddings for different action classes.

Profil du candidat :
− Solid programming skills in Python
− Working skills in Blender for 3D modeling and animation
− Experience in Deep Learning (Diffusion model)
− Good communication skills

Formation et compétences requises :

Adresse d’emploi :
2 Rue Marie Hamm
67000 Strasbourg

Document attaché : 202411071348_Stage-3D Human Motion Diffusion Model.pdf

Post-doctorant(e) en Analyse et Apprentissage de Données Multi-modales
Mar 31 – Apr 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ETIS
Durée : 18
Contact : issam.falih@uca.fr
Date limite de publication : 2025-03-31

Contexte :
En collaboration avec la Société SAFRAN S.A. sont a lea recherche d’un(e) post-doctorant(e) pour participer à un projet innovant de ségrégation et d’analyse de données liées à la chaîne d’approvisionnement.
L’objectif principal est d’intégrer et de structurer des données multi-modales (textuelles, structurées, etc.) afin de développer des textbf{modèles d’apprentissage automatique}
pour détecter et extraire des informations clés, puis prédire un risque associé à ces données.

Sujet :
Missions Principales
1. Analyse et Intégration des Données
— Concevoir et mettre en place des pipelines d’intégration de données multi-sources.
— Nettoyer et structurer les informations pour en faciliter l’exploitation.
2. Modélisation en Intelligence Artificielle
— Développer des modèles de Machine Learning et/ou Deep Learning afin d’extraire
automatiquement des entités (fournisseurs, matières premières, etc.).
— Mettre en place un modèle de prédiction de risque basé sur des données multi-
modales.
3. Validation et Évaluation
— Évaluer les performances des modèles via des métriques appropriées (précision, rappel,
F1-score, etc.).
— Itérer sur la conception des modèles pour améliorer continuellement la robustesse et
la fiabilité.
4. Documentation et Communication
— Rédiger des rapports techniques et des publications scientifiques sur les avancées du
projet.
— Présenter régulièrement les résultats à l’équipe de recherche et aux partenaires impliqués.
1

Profil du candidat :

Profil Recherché
— Doctorat (ou équivalent) en Informatique, Mathématiques appliquées, Traitement
du Langage Naturel, Statistiques ou domaine connexe.
— Première expérience (stage, thèse, postdoc) liée à la data science ou à la recherche
en IA

Formation et compétences requises :
Compétences Requises
1. Data Science & IA
— Excellente maîtrise des méthodes de Machine Learning supervisé/non supervisé
et/ou Deep Learning.
— Connaissances solides en traitement de données textuelles (NLP/TAL) : ex-
traction d’entités, classification, etc.
— Expérience dans la fusion de données (multimodalité) et l’intégration de différentes
sources d’information.
2. Environnements et Outils
— Pratique confirmée des bibliothèques Python (PyTorch, TensorFlow, scikit-learn,
spaCy, etc.).
— Connaissances en ingénierie de la donnée (ETL, bases SQL/NoSQL, data pipeline).
— Maîtrise des bonnes pratiques de versioning et de gestion de code (Git).
3. Rigueur Scientifique et Organisation
— Capacité à mener des expérimentations rigoureuses (protocoles, reproductibilité, re-
porting).
— Veille technologique et scientifique pour adapter rapidement les approches existantes.
4. Qualités Humaines
— Autonomie, sens de l’initiative et esprit collaboratif.
— Excellentes capacités de communication (orales et écrites).
— Respect de la confidentialité et des contraintes liées aux données sensibles.

Adresse d’emploi :
Conditions du Poste
— Localisation : ETIS CNRS UMR 8051, CY Cergy paris Unviersity, Site de Saint-
Martin 2 Av. Adolphe Chauvin, 95300 Pontoise et SAFRAN.
— Type de contrat : CDD postdoctoral (12 à 18 mois, à discuter).
— Rémunération : Selon expérience et grille de salaire applicable.
— Lieu : Poste localisé à l’université de Cergy au sein du laboratoire d’ETIS.
— Disponibilité : Dès que possible.

Document attaché : 202502111631_SupplyChain_project-2.pdf

Apr
1
Tue
2025
Post-doctoral researcher in Semantic Web/Linked Data
Apr 1 – Apr 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Mines Saint-Étienne / LIMOS
Durée : 24 mois
Contact : antoine.zimmermann@emse.fr
Date limite de publication : 2025-04-01

Contexte :
We are recruiting a post-doctoral researcher in computer science that will contribute to European university EULiST. This is fixed-term contract of 24 months allocated to department Informatique et systèmes intelligents (Intelligent systems and informatics or ISI) at Institut Henri Fayol, one of the 5 research and training centres of Mines Saint-Étienne. Moreover, the research of the employee will be conducted in the Laboratoire d’informatique, de modélisation et d’optimisation des systèmes (Laboratory of Informatics, Modelling and Optimisation of Systems or LIMOS).

Sujet :
The researcher would contribute to EULiST, an alliance of 10 universities in Europe, on tasks related to the digital campus that aims at collecting data and knowledge about courses, teaching material, library resources, and generally, university knowledge across the alliance.

The post-doctoral researcher will have to get involved in Tasks 2.2 and 2.3 of EULiST that focus around EULiST knowledge hub hosted by Leibniz University Hannover. In addition, we expect the researcher to:
– In collaboration with other partners, contribute to a knowledge model or knowledge models to describe common university resources (such as courses, study programmes, publications, and so on);
– Instantiate the model by collecting, extracting and transforming available data into a knowledge graph, compatible with Leibniz University’s knowledge hub;
– Work on interoperable platform architectures for data/knowledge access and interchange;
– Contribute to existing platform prototypes at Institut Mines-Télécom, such as Data-AI Competences Platform and Teralab’s software resource catalogue.

Profil du candidat :
To do this, we are looking for talented researchers who own a PhD degree on topics that relate to the Semantic Web, the Web of Data, and knowledge graphs. Particularly, we seek a person with:
– Very good knowledge of at least several of these standards: RDF, SPARQL, OWL, SHACL, LDP;
– Experience in developing software with these technologies;
– A capacity to abstract problems and generalise solutions to cover a broad spectrum of applications or fields;
– Good autonomy and some level of leadership towards managing students’ projects;
– Good communication skills in English and ease to evolve in an international and multicultural context.

To prove their value, candidates must provide a CV that mentions their publication record and research project experience. Candidates must also write a convincing motivation letter. Letters mostly written by generative AI are usually generic and dull, therefore they are likely to reduce the chance to obtain an interview.

Formation et compétences requises :
PhD in computer science, with an academic record showing skills in Semantic Web, Linked Data, knowledge engineering.

Application must be made through the recruitee platform at https://institutminestelecom.recruitee.com/o/post-doctoral-researcher-in-computer-science-24-months

Adresse d’emploi :
Mines Saint-Étienne
158 cours Fauriel
CS 62362
42023 Saint-Étienne Cedex 2
France

Postes EC au LORIA
Apr 1 – Apr 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LORIA / Université de Lorraine
Durée : postes fonctionnaire
Contact : fabien.lauer@loria.fr
Date limite de publication : 2025-04-01

Contexte :

Sujet :

4 postes de maîtres de conférences et 2 postes de professeurs en informatique sont ouverts à l’Université de Lorraine avec une affectation recherche au LORIA (www.loria.fr). Les candidats et candidates doivent impérativement prendre contact avec les responsables des équipes du laboratoire et les composantes d’enseignement.

— 2 postes PR à l’école des Mines de Nancy et à l’IUT Charlemagne (Nancy). En recherche, ouverts au recrutement dans toutes les équipes du LORIA. En enseignement, profilés robotique – CPS à l’école des Mines et profilé pour le département MMI à l’IUT Charlemagne.

— 2 postes MCF ouverts en recherche au recrutement dans toutes les équipes des départements D1 « Algorithmique, calcul, image et géométrie », D2 « Méthodes formelles » et D3 « Réseaux, systèmes et services » au LORIA.
Pour l’enseignement : 1 affectation à la Faculté des Sciences et Technologie (Nancy) avec un profil ouvert (Programmation, Algorithmique, Mathématiques Discrètes, Web, Réseaux, Génie Logiciel, Bases de Données) ; 1 affectation à Telecom Nancy profilée sur les domaines des systèmes connectés et du génie logiciel (Systèmes connectés, systèmes distribués, génie logiciel, programmation système, développement logiciel, cybersécurité, cloud).

— 2 postes MCF ouverts en recherche au recrutement dans toutes les équipes des départements D3 « Réseaux, systèmes et services », D4 « Traitement automatique des langues et des connaissances » et D5 « Systèmes complexes, intelligence artificielle et robotique » au LORIA.
Pour l’enseignement : 1 affectation à l’IDMC (Nancy) profilée pour la formation MIAGE (Informatique, BD, SI, SI distribué, big data, cloud, BI). 1 affectation à l’IUT de Metz profilée sur le parcours Réalisation d’applications (Développement d’applications, Programmation système).

Plus d’informations sur https://www.loria.fr/fr/emplois/

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
Nancy ou Metz

Apr
4
Fri
2025
Docteur(e) en Intelligence Artificielle – Spécialisation Systèmes Multi-Agents en IA
Apr 4 – Apr 5 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Prime Analytics
Durée : CDI
Contact : majdi.ghorbel@telecom-paris.fr
Date limite de publication : 2025-04-04

Contexte :
Prime Analytics est une société française spécialisée dans la transformation digitale et l’analyse de données. Nous aidons les entreprises, notamment dans le secteur bancaire, à optimiser leurs processus grâce à des outils modernes comme Alteryx, Power BI, et Tableau. Nous développons des solutions basées sur l’intelligence artificielle pour résoudre des problèmes complexes liés à la finance, à la gestion des risques, et à la conformité.

Sujet :
Développement et optimisation de solutions innovantes en intelligence artificielle, centrées sur les systèmes multi-agents ou les graphes orientés, dans un contexte financier. Les missions incluent la conception d’algorithmes avancés, l’intégration de frameworks spécialisés (Neo4j, PyTorch Geometric, JADE), et la publication de recherches de haut niveau.

Profil du candidat :
Nous recherchons un(e) docteur(e) ayant récemment soutenu sa thèse ou sur le point de le faire, passionné(e) par les systèmes multi-agents ou la théorie des graphes, avec une expertise démontrée en intelligence artificielle et un intérêt marqué pour le secteur financier

Formation et compétences requises :
Doctorat en intelligence artificielle, science des données, ou domaine connexe.
Expérience en apprentissage automatique (y compris renforcement multi-agents ou réseaux de neurones sur graphes).
Maîtrise de frameworks spécialisés tels que JADE, PyTorch Geometric, Neo4j, ou LangChain.
Connaissance des techniques de modélisation et d’explicabilité des systèmes IA.
Solides compétences en programmation (Python, C++) et en gestion de projets collaboratifs.
Fort intérêt ou expérience préalable dans le secteur financier.

Adresse d’emploi :
Paris, France (télétravail partiel possible jusqu’à 3 jours par semaine)

Offres de thèses

Jan
15
Wed
2025
Deep Generative Models for Next-Generation Search and Recommendation
Jan 15 – Jan 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Criteo AI Lab Paris / Sorbonne Universite
Durée : 36 mois
Contact : patrick.gallinari@sorbonne-universite.fr
Date limite de publication : 2025-01-15

Contexte :
New paradigms like Generative Information Retrieval (GenIR) and Generative Recommendation (GenREC), built on foundation models, aim to transform how information is accessed. GenIR combines all components of traditional IR systems into one model that generates responses directly from user queries, while GenREC does something similar for recommendations. The goal of this PhD project is to explore the convergence of generative models for search, recommendation and related downstream tasks.

Sujet :
A first step will be to develop a unified generative engine for both search and recommendation, allowing for seamless alternation between the two modes during interactive sessions using a single engine. This is also a step toward realizing foundation models that offer a variety of functions to enhance user interactions. The second step will involve adapting this model to the large-scale, dynamic corpora characteristic of recommendation systems in the adtech industry, which presents additional research challenges. A brief description of the two directions is provided below.

Task 1: Unifying Generative IR and Recommendation

This task aims to develop a unified engine for search and recommendation, allowing for alternating between the two modes in interactive sessions. The goal is to enhance performance in both domains through a multi-task framework, enriching training data for both. While search and recommendation share similarities, they also have key differences, such as query intent. Search is driven by user queries, while recommendation relies on past user behavior. We aim to address these differences by defining a joint architecture and multi-task training strategy that captures the semantic distinctions between search (similarity-based) and recommendation (collaborative).

Task 2: Enhancing ID Associations for Large and Dynamic Collections

In this task, the goal is to improve document and item ID representations in large-scale, dynamic collections for a joint search/recommendation system. We will explore methods such as hierarchical structures and prior knowledge (e.g., product taxonomies) to optimize ID design. By leveraging additional information like brands or categorizations, we aim to improve the retrieval and recommendation process, particularly for large and evolving datasets.

Profil du candidat :
Computer science or applied mathematics. Good programming skills.

Formation et compétences requises :
Master degree in computer science or applied mathematics, Engineering school. Good background and experience in machine learning.

Adresse d’emploi :
Criteo AI Lab Paris

Document attaché : 202410031512_2024-09-PhD position-description-Generative-IR-Criteo.pdf

Jan
26
Sun
2025
12 financements de thèse – Privacy for Smart Speech Technology
Jan 26 – Jan 27 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : 7 universités différentes en Europe
Durée : 36 mois
Contact : emmanuel.vincent@inria.fr
Date limite de publication : 2025-01-26

Contexte :

Sujet :

PSST! – Privacy for Smart Speech Technology

Call for applicants – PhD students (12 positions)

“Privacy for Smart Speech Technology” (PSST) is a joint doctoral training programme and Horizon Europe Marie Skłodowska-Curie Action, the European Union’s flagship funding programme for doctoral training. We are a consortium of 7 European universities and 11 industrial partners searching for 12 PhD students to work on the protection and evaluation of privacy for smart speech technology. PSST is a unique opportunity, as it is the largest international project focusing on privacy in speech technology and because the importance of privacy has only recently gained wider appreciation.

This is no ordinary PhD programme.

The structured PSST doctoral training programme combines training in cutting-edge research, transferable skills and career-enhancing skills with exposure to multiple sectors and disciplines.

Join us and put your expertise in deep learning / machine learning, speech processing, information privacy and security, and user studies into practice and gain your PhD degree from TWO leading European Universities (listed below)!

See more information and PhD topics at https://psst-doctoralnetwork.eu/

We are looking for 12 PhD candidates who hold a master’s degree. We value diversity and plan to hire 12 fellows with a balanced background and skillset, and an excellent academic track record. We especially encourage applications from members of under-represented groups.

10.12.2024  Call opens
26.1.2025   Application deadline
28.2.2025   Shortlisted candidates informed
17.-18.3.2025 Recruitment event in Finland for shortlisted candidates
May 2025    Notification of acceptance
August 2025 Planned start of employment

PSST follows a double-degree model whereby, during their 45-month employment, each PhD student will work in collaboration with two universities towards PhD degrees from both institutions! Each PhD student will also spend 6 months on secondment to one of our Associate Partners, all leading European SMEs, large industrials or regulatory bodies active in speech privacy:. – CNIL (France), ELDA (France), ki:elements (Germany), Loihde (Finland), Naver (France), Omilia (Greece), Orange (France), Vocapia (France), VoiceInteraction (Portugal), Voice INTER connect (Germany), and VoiceMod (Spain).

Applications should include:

– Curriculum Vitae (including countries of residence in the past 36 months).
– Academic transcripts for completed courses and degrees.
– Motivation letter explaining why you want to pursue a PhD degree and why you believe you are an outstanding candidate to pursue your PhD researching PSST topics.
– Reference letter from Master’s thesis supervisor/advisor or similar.
– (Optional) Preferences for 1-3 research topics (see webpage) and universities.

Requirements

– A master’s degree in electrical engineering, computer science or related area (degree must be completed before employment can start).
– Mobility: The fellow must not have resided or carried out their main activity (work, studies, etc.) in the country of the first recruiting organisation for more than 12 months in the 36 months immediately before their recruitment date.
– Fluent written and verbal communication skills in English are required, knowledge of the local language is an advantage.
– Candidates cannot hold a doctoral degree.

Desirable skills

– Knowledge and skills in deep learning, programming, speech processing, user studies, privacy.
– Ability to work independently and a critical mindset.
– Pro-activeness and eagerness to participate in network-wide training events, international mobility, and public dissemination activities. 

Submit your application at https://www.aalto.fi/en/open-positions/doctoral-researchers-12-positions-privacy-for-smart-speech-technology-psst

PhD students receive a regular salary and social benefits according to national regulations, and if applicable, also family leave, long-term leave, and special needs allowances. The gross salaries we offer, including both a living allowance and a mobility allowance, are

3500 €/month         Aalto University (Espoo, Finland)               
3261 €/month         EURECOM (Sophia Antipolis, France) [1]
2680 €/month         INESC-ID (Lisbon, Portugal) [2]
3261 €/month         INRIA (Nancy or Saclay, France) [1]
Salary group TV-L E13   Ruhr University Bochum (Germany) [3]
Salary scale P          Radboud University Nijmegen (Netherlands) [4]
Salary group TV-L E13   Technical University of Berlin (Germany) [3]

[1] https://www.horizon-europe.gouv.fr/sites/default/files/2022-02/horizon-europe—dn-pf—french-salary-explained-5762.pdf
[2] includes: base salary + food allowance + holiday allowance
[3] https://oeffentlicher-dienst.info/c/t/rechner/tv-l/allg?id=tv-l-2024&g=E_13&s=1
[4] https://www.ru.nl/sites/default/files/2024-09/Overview%20salary%20scales%201%20sept%202024.pdf

For queries, contact info@psst-doctoralnetwork.eu.

Marie Skłodowska-Curie Actions, Doctoral Networks (MSCA-DN) , 101168193 – PSST.

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
7 universités différentes en Europe

Feb
1
Sat
2025
Human-in-the-Loop Audio Source Separation for Aircraft Cockpit Recordings
Feb 1 – Feb 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LISIC
Durée : 36 mois
Contact : matthieu.puigt@univ-littoral.fr
Date limite de publication : 2025-02-01

Contexte :
This Ph.D. thesis is funded within the “BLeRIOT” ANR ASTRID project (Jan. 2025 – Dec. 2027). The BLeRIOT consortium is a balanced group of research laboratories—located in Toulouse (IRIT) and Longuenesse (LISIC)—and of French authorities in charge of aircraft accident or incident (BEA, RESEDA, both being located near Paris).

Sujet :
Public and state transportation aircraft are fitted with two crash-survival flight recorders—also known as “black boxes”—i.e., the Cockpit Voice Recorder (CVR) and the Flight Data Recorder. Both need to be retrieved and analyzed by air accident authorities in case of incident or accident. The audio service of BEA (Bureau d’Enquêtes et d’Analyses pour la sécurité de l’aviation civile) and RESEDA are the French authorities in charge of CVR investigations, for civil and State aircrafts, respectively. CVR contents are “manually” transcribed by specialized investigators (a.k.a. audio analysts) for the benefits of the safety investigation.

In a CVR recording, the causes of speech intelligibility degradation are numerous. In particular, the CVR design itself generates a significant amount of superimposed—a.k.a. mixed—speech signals over the audio channels which are simultaneously recorded. Moreover, in case of an aircraft accident or incident, superimposed speech signals are more likely to occur—since voice and cockpit sound activities become denser—which may yield to the loss of crucial information for the safety investigators. In our recent work [1], we reverse-engineered the CVR audio mixing model and we found that state-of-the-art blind source separation (BSS) algorithms could be applied. BSS is a generic problem which aims to estimate unknown source signals from observed ones while the propagation channels from the sources to the sensors are also unknown [2]. We noticed that classical BSS algorithms1 could help the
audio analyst to transcribe a CVR recording. In particular, allowing the audio analyst to listen the outputs of different methods significantly helped him in his tasks. However, there remained some cases where these classical techniques were not helpful.
The objective of this Ph.D. thesis is two-fold.
1. First, we aim to develop BSS methods which are providing a sufficient performance while not requiring too much energy to that end [5]. For that purpose, we will propose Human-in-the-Loop BSS methods which will be based on the audio-analyst—BSS interactions. In particular, the goal is to first let the analyst use simple yet efficient BSS algorithms, and then to complexify the BSS method (and allow it more computational time) if the obtained BSS output is unsatisfactory. The latter will be measured by both objective and subjective criteria. Adding information in BSS will be the first way to improve the BSS method, as it was found to be useful for other applications [6–8].

2. The second objective of the Ph.D. thesis is to be able to jointly process all the CVR channels. Indeed, one microphone named Cockpit Area Microphone (CAM) was not investigated in [1], mainly because it is sampled at 12 kHz while the other CVR signals are sampled at 7 kHz. However, the CAM channel provides additional information (e.g., mechanical noise)—mixed with the other sounds in the cockpit—which is usually not recorded in the other channels while being crucial to analyze. While jointly processing data with different resolutions is quite classical for other applications—e.g., hyperspectral imaging [9]—it has been much less investigated for audio signals.

References:
[1] Matthieu Puigt, Benjamin Bigot, and Hélène Devulder. Introducing the “cockpit party problem”: Blind source separation enhances aircraft cockpit speech transcription. Journal of the Audio Engineering Society, to appear.
[2] Pierre Comon and Christian Jutten, editors. Handbook of Blind Source Separation: Independent Component Analysis and Applications. Elsevier, 2010.
[3] DeLiang Wang and Jitong Chen. Supervised speech separation based on deep learning: An overview. IEEE/ACM Trans. Audio, Speech, Language Process., 26(10):1702–1726, Oct. 2018.
[4] Hendrik Purwins, Bo Li, Tuomas Virtanen, Jan Schlüter, Shuo-Yiin Chang, and Tara Sainath. Deep learning for audio signal processing. IEEE J. Sel. Topics Signal Process., 13(2):206–219, May 2019.
[5] Romain Couillet, Denis Trystram, and Thierry Ménissier. The submerged part of the AI-ceberg. IEEE Signal Process. Mag., 39(5):10–17, 2022.
[6] Clément Dorffer, Matthieu Puigt, Gilles Delmaire, and Gilles Roussel. Informed nonnegative matrix factorization methods for mobile sensor network calibration. IEEE Trans. Signal Inf. Process. Netw., 4(4):667–682, 2018.
[7] Gilles Delmaire, Mahmoud Omidvar, Matthieu Puigt, Frédéric Ledoux, Abdelhakim Limem, Gilles Roussel, and Dominique Courcot. Informed weighted non-negative matrix factorization using αβ-divergence applied to source apportionment. Entropy, 21(3):253, 2019.
[8] Sarah Roual, Claude Sensiau, and Gilles Chardon. Informed source separation for turbofan broadband noise using non-negative matrix factorization. In Forum Acousticum 2023, 2023.
[9] Laetitia Loncan, Luis B De Almeida, José M Bioucas-Dias, Xavier Briottet, Jocelyn Chanussot, Nicolas Dobigeon, Sophie Fabre, Wenzhi Liao, Giorgio A Licciardi, Miguel Simoes, et al. Hyperspectral pansharpening: A review. IEEE Geosci. Remote Sens. Mag., 3(3):27–46, 2015.

Profil du candidat :
Recently or nearly graduated in the field of data sciences (signal and image processing, computer science with a focus in artificial intelligence / machine learning, applied mathematics), you are curious and are very comfortable in programming (Matlab, Python). You read and speak fluent English with ease. You also own communication skills so that you can explain your work to non-experts of your field, e.g., during project meetings. Although not compulsory, speaking French as well as a first experience in low-rank approximation—e.g., matrix or tensor
decomposition, blind source separation, dictionary learning—will be appreciated.

Applicants must be French or citizens of Member State of the European Union, or of a State forming part of the European Economic Area, or of the Swiss Confederation.

To apply, please send an e-mail to {gilles.delmaire, matthieu.puigt} [at] univ-littoral.fr while attaching the documents that can support your application:
• your resume;
• a cover letter;
• your transcripts from the last year of B.Sc to the last year of M.Sc. (if the latter is already available);
• two reference letters or the names and means of contact of two academic advisers.

Applications will be reviewed on a rolling basis until the position is filled.

Formation et compétences requises :

Adresse d’emploi :
Laboratoire d’Informatique, SIgnal, Image de la Côte d’Opale (LISIC)
Université du Littoral Côte d’Opale
EILCO – Campus de la Malassise
62228 Longuenesse

Document attaché : 202411011651_These_ANR_BLeRIOT_2025.pdf

Tensor Approaches for Causal Discovery
Feb 1 – Feb 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : CRAN-Université de LOrraine
Durée : 36
Contact : marianne.clausel@univ-lorraine.fr
Date limite de publication : 2025-02-01

Contexte :
Causality and more generally eXplainable AI (XAI) is one of the hot current topics of the AI scientific community, with many applications in medicine, material sciences, environment, marketing…
.
We invite for applications for a PhD thesis position within the CAUSALI-T-AI project of PEPR IA project funded by the ANR (2023-2029) about tensorial approaches for causal discovery (more details below). The thesis will take place in the Simul Research Group of Centre de Recherche en Automatique de Nancy. International scientific collaborations with Canada, Japan and Germany can also be planned. We have strong connections with Elina Robeva’s research group in British Columbia (Canada) , Joscha Diehl’s research group in Greifswald University (Germany) and N. Siugara group in JAMSTEC (Japan)

Sujet :
Causal discovery is a problem of finding causal (directional) relationships between random variables, and is a challenging problem. A particular difficulty is the presence of latent (unobserved) variables. The methods we consider in this topic, use the higher-order statistics (for example, cumulants or moments) to perform these tasks. Many of those methods rely on the non-Gaussianity assumption.

Some potential tracks for this research project:
1) Methods based on cumulants for models with multidirected edges ( algorithm for a particular case: [Liu, Robeva, Wang, 2020] , theoretical foundation: [Robeva, Seby, 2020])
2) Structural equation models with latent variables viewed as mixtures of independent component analysis models [Shimizu, 2007], and also [Liu et al., 2021] for linear dependencies.
3) Advanced topic: methods based on the signature tensors for causal discovery in time series [Chevyrev, Kormilitzin, 2016].

Profil du candidat :
Master student in Machine Learning/Data Science/applied Math

Formation et compétences requises :

Adresse d’emploi :
Simul Research Group @CRAN

Faculté des Sciences et Technologies

Campus, Boulevard des Aiguillettes

54506 Vandœuvre-lès-Nancy

Website : https://cran-simul.github.io/

Document attaché : 202411011609_TensorCausalDiscovery.pdf

Feb
25
Tue
2025
Extraction de motifs dans les graphes à l’aide de Graph Neural Networks : Vers une formalisation des règles de classification
Feb 25 – Feb 26 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ISEA/UNC
Durée : 3 ans
Contact : loic.salmon@unc.nc
Date limite de publication : 2025-02-25

Contexte :

Sujet :
Les graphes dynamiques attribués sont omniprésents dans de nombreux domaines, tels que les réseaux sociaux, la biologie moléculaire, ou les systèmes de recommandation. Cette thèse vise à explorer l’utilisation des Graph Neural Networks (GNN) pour l’extraction de motifs dans les graphes, avec un focus sur la génération de règles de classification formelles et explicables. Les travaux incluront la modélisation des motifs, l’apprentissage des motifs, la génération de règles de classification, et leur validation formelle.

Profil du candidat :

Nous recherchons un(e) candidat(e) motivé(e) avec :
1. Un diplôme de niveau Bac+5 en informatique, mathématiques appliquées, ou domaine connexe.
2. Des compétences en apprentissage automatique, en particulier sur les réseaux de neurones et les GNN.
3. Une appétence pour la théorie des graphes, l’extraction de motifs, et les méthodes formelles.
4. Un bon niveau d’anglais (lu, écrit, parlé).

Formation et compétences requises :

Adresse d’emploi :
Université de la Nouvelle-Calédonie,- BP R4 98851 Nouméa Cedex, Nouvelle-Calédonie ISEA (Institut des Sciences Exactes et Appliquées)

Document attaché : 202502110731_Proposition_de_thèse_GNN_et_extraction_de_motifs.pdf

Feb
26
Wed
2025
Calcul et optimisation de similarités de séquences complexes
Feb 26 – Feb 27 all-day

Offre en lien avec l’Action/le Réseau : SIMDAC/– — –

Laboratoire/Entreprise : LIFO
Durée : 3 ans
Contact : Patrick.Marcel@univ-orleans.fr
Date limite de publication : 2025-02-26

Contexte :
De nombreux domaines nécessitent l’analyse de gros volumes de séquences de diverses complexités (en termes de périodicité, complétude, multivariée ou non, etc.) et en particulier de leur similarité. On peut citer les domaines aussi variés que le médical (e.g. stratification de patients, alignements de gènes), le social (analyse de trajectoires sémantiques), la science des données (génération et recommandation de pipelines d’exploration), etc.
Par exemple, le groupement de patients suivis sur de longues périodes peut être vu comme un problème de recherche et calcul de similarité sur des séquences complexes : les séquences sont apériodiques (la fréquence des rendez-vous médicaux n’étant pas fixe), multivariées (plusieurs informations sont enregistrées à chaque rendez-vous), incomplètes (les informations enregistrées peuvent varier d’un patient à l’autre).

Il est souvent nécessaire d’optimiser du calcul de similarités sur ces gros volumes de données de type séquences. Ce thème est à la croisée des domaines HPC (calcul haute performance) et analyse et exploration de données. Il recouvre différents challenges scientifiques : prise en compte de la spécificité des données (séquences, séries, trajectoires, etc.), définition de méthodes de réduction de dimensionalité et indexation, parallélisation des étapes du calcul de similarité, adaptation d’approches existantes (par exemple, sur séries temporelles ou données spatio-temporelles), etc.

Sujet :
Dans ce contexte, l’objectif de cette thèse est d’étudier différentes approches de recherche approximative pour le calcul de similarité de séquences complexes sur architecture HPC avec accélération GPU.
Parmi les approches, on s’intéressera plus particulièrement à utiliser et combiner des approches de Locality Sensitive Hashing (LSH), de réduction de dimensionalité, d’indexation, et d’échantillonage.

Profil du candidat :
Les candidats devront posséder un Master en informatique ou un niveau équivalent. Ils devront posséder un bon niveau en programmation, base de données, parallélisme et mathématique.

Formation et compétences requises :

Adresse d’emploi :
LIFO, Université d’Orléans

Document attaché : 202502261521_Sujet_de_th_se___approches_stochastiques_pour_le_calcul_de_similarit_s__de_s_quences_complexes (4).pdf

Feb
28
Fri
2025
Hybrid AI for the prevention of toxic smoke inhalation risk among firefighters
Feb 28 – Mar 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Connected Health Lab (Ecole d’ingénieurs ISIS) Ca
Durée : 36
Contact : francis.faux@univ-jfc.fr
Date limite de publication : 2025-02-28

Contexte :
The aim of the project is to trace the toxic products “inhaled” by firefighters during their various interventions.

Sujet :
The first stage of the thesis will be to make the real-time acquisition system operational and reliable,
and to contextualize it according to the type of fire (apartment, forest).
The second objective of the thesis will be:
– to study hybrid online and multi-source learning models for modeling the toxicity of different types of fire, in order to infer the duration
of exposure to different toxic products (taking into account the randomness of the context)
– to develop a medical decision support tool under uncertainty to identify at-risk firefighter profiles.
Given a firefighter’s history, it will be possible to deduce the arguments that point to a certain level
of risk associated with the development of different diseases. To this end, work on Bipolar Layered argumentative
Frameworks could be adapted to temporal data and, if necessary, enriched.

Profil du candidat :
We are looking for a candidate with a strong AI background, particularly in machine learning. Knowledge of uncertainty modeling in AI will be highly appreciated.

Formation et compétences requises :
Master2

Adresse d’emploi :
Ecole d’ingénieurs ISIS, rue Firmin Oulès, 81100 Castres (france)

Document attaché : 202501061422_Thesis-AI_hybrid.pdf

Localisation et dimensionnement des unités mobiles de soins dans les déserts médicaux
Feb 28 – Mar 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire MIS – Université de Picardie Jules Ver
Durée : 3 ans
Contact : corinne.lucet@u-picardie.fr
Date limite de publication : 2025-02-28

Contexte :

Sujet :
Ce projet de recherche vise à développer un outil d’intelligence artificielle (IA) capable de proposer des
scénarios pour le problème de localisation et de dimensionnement des unités mobiles de soins médicaux,
afin d’améliorer l’accès aux soins dans les déserts médicaux. L’objectif est de maximiser la couverture du
territoire tout en tenant compte des besoins des patients, de la disponibilité des soignants et de
l’incertitude de la demande en services de santé. L’outil proposera une solution acceptable, dans la
mesure où elle répondra aux besoins de la population.

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
Université de Picardie Jules Verne, Amiens
Laboratoire Modélisation, Information & Systèmes (UR UPJV MIS 4290)

Document attaché : 202502031300_LOCMED_2025_stage_diffusion_fr.pdf

Robust Tensor Networks Algorithms for Quantum Computing
Feb 28 – Mar 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CRISTAL et PhLAM
Durée : 36 mois
Contact : remy.boyer@univ-lille.fr
Date limite de publication : 2025-02-28

Contexte :
Abstract: Quantum computing is at the cutting edge of technological innovation, offering the potential to solve complex problems that classical “binary” computers cannot address. Ten- sor algebra, with its comprehensive mathematical framework, offers crucial tools for modeling and approximating large multidimensional datasets. This thesis seeks to investigate the interplay between tensor networks and quantum computing by proposing original, robust (to decoherence of qubits) quantum algorithms that utilize tensor structures to improve computational efficiency and capabilities. This research requires a multidisciplinary understanding of quantum physics and linear algebra. This thesis topic will benefit from the complementary expertises of Remy Boyer (CRISTAL/SIGMA) for the multilinear algebra aspect and Giuseppe Patera (PhLAM, Quantum Information team) for the quantum physics aspect.

Key-words: quantum processor, low-rank decomposition, tensor network, qubits, coherence, curse of dimensionality

Contact: For application, please contact
• Remy BOYER, University of Lille, CRISTAl Lab. , remy.boyer@univ-lille.fr
• Giuseppe PATERA, University of Lille, PhLAM Lab. , giuseppe.patera@univ-lille.fr

Sujet :
Why quantum processors are attractive solutions ?

1. Quantum processors are based on the superposition principle [1]. In brief, unlike classical bit-based processor where the information is encoded in two states “0 excluding 1” or “1 excluding 0”, quantum bits (qubits) |0⟩ and |1⟩ can exist in multiple states simultaneously according to a linear combination of the qubits alphabet α|0⟩ + β|1⟩

2. Quantum processors are based on the entanglement principle. Qubits can be entangled or correlated, meaning the state of one qubit is directly related to the state of another, regardless of a phase parameter. Consequently, α and β cannot be reduced to a probabilistic point of view as the qubit probabilities but include the relative interdependence in the form of a phase-relation between the two states |0⟩ and |1⟩. This means that knowing the state of one qubit allows to instantly deduce the state of the other.
The two above principles (superposition and entanglement) allow quantum algorithms to perform many calculations in parallel. This leads to potential speed-ups for many important problems.

Tensor-based processing
Tensor algebra is a powerful mathematical framework [6] that extends the concepts of scalars, vectors, and matrices to higher dimensions, known as tensors. Tensor algebra allows the compact (i.e. low-rank) representation of massive data in multidimensional arrays. The applications are for instance Physics, Machine Learning, Data Science, Computer Graphics, Robotics and Control Systems, etc.

Multi-Linear algebra and quantum systems

1. Entanglement and Singular Value Decomposition (SVD) are strongly linked [3]. SVD gives the degree of communication between two subsystems and the entanglement is measured by the number of nonzero singular values of a particular matrix associated to the reshaping of the quantum state.

2. TNs and quantum computing are highly interconnected concepts [2]. They provide an efficient way to graphically represent complex quantum states into connected core tensors (3-order tensors). A quantum state of multiple qubits can be expressed as a graph of core tensors, capturing entanglements between qubits in a more compact form. Some quantum algorithms can benefit from the structure of tensor networks. For example, Matrix Product States (MPS) [7] and Projected Entangled Pair States (PEPS) utilize tensor networks to efficiently represent and manipulate quantum.

Quantum architecture and decoherence
A typical Quantum architecture is composed by three main steps:

1. Data encoding via Tensor Networks (quantum state preparation),

2. data processing (multi-qubit quantum gates),

3. measurement (quantum state tomography).
The proposed work will be mainly focused on step 1 with respect to the constraints of the two other steps. A major drawback of the quantum framework is the decoherence of qubits. Qubits are highly susceptible to environmental interference, which can cause them to lose their quantum state or also their coherence. This phenomenon is known as decoherence [10]. Briefly, decoherent quantum computing is classical “bit”-based computing.

Research Objectives
1. Investigate TN in the context of the curse of dimensionality: One of the objectifs of this work is to explore the interest of the different TN topologies focusing on their capability to mitigate the “curse of dimensionality” [4].

2. Develop novel on-line/streaming algorithms: Batch-mode processing is quite inefficient for streaming data. So, there is a need to propose adaptive (over time) implementation of TN [8].

3. Propose new TN-based algorithm robust to qubits decoherence. Robustness allows to increase the number of qubits in a quantum system while maintaining performance (“scal- ability”).

4. The SVD is the basic building block of TN algorithms. Recently, randomized methods [9] also known under the name of “compressed sensing” [5] allow to speed-up the SVD at the price of a bounded error.

References
[1] A. Steane, Quantum computing. Reports on Progress in Physics, 61(2), 117, 1998.
[2] R. Orus, Tensor networks for complex quantum systems. Nature Reviews Physics, 1(9), 2019.
[3] R. Orus, A practical introduction to tensor networks: Matrix product states and projected entangled pair states, Annals of Physics, Vol. 349, 2014.
[4] A. Cichocki; N. Lee; I. Oseledets; A.-H. Phan; Q. Zhao; D. P. Mandic, Tensor Networks for Dimensionality Reduction and Large-scale Optimization, Foundations and Trends in Machine Learning, Vol. 9, No. 4-5, 2016.
[5] D.L. Donoho, Compressed sensing, IEEE Transactions on IT. 52 (4), 2006.
[6] T. G. Kolda and B. W. Bader, Tensor Decompositions and Applications, SIAM REVIEW, Vol. 51, No. 3, 2009.
[7] Y. Zniyed, R. Boyer, A. De Almeida, and G. Favier. A TT-based hierarchical framework for decomposing high-order tensors. SIAM Journal on Scientific Computing, vol. 42, 2020.
[8] L. T. Thanh, K. Abed-Meraim, N. L. Trung and R. Boyer, “Adaptive Algorithms for Track- ing Tensor-Train Decomposition of Streaming Tensors,” 28th European Signal Processing Conference (EUSIPCO), 2021.
[9] N. Halko, P.G. Martinsson, and J.A. Tropp, Finding structure with randomness: Probabilistic algorithms for constructing approximate matrix decompositions. SIAM review, 53(2), 2011.
[10] M. L., Hu, and H. Fan, Robustness of quantum correlations against decoherence. Annals of Physics, 327(3), 2012.

Profil du candidat :
This research requires a multidisciplinary understanding of quantum physics and linear algebra.

Formation et compétences requises :

Adresse d’emploi :
Campus Scientifique de Lille

Document attaché : 202412170930_phd_tensor_quantum.tex

Mar
1
Sat
2025
Optimisation Sous Contraintes des Flexibilités des Équipements Consommateurs d’Électricité dans le secteur Résidentiel et Tertiaire
Mar 1 – Mar 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIFAT – Symhonics
Durée : 3 ans
Contact : chanson@univ-tours.fr
Date limite de publication : 2025-03-01

Contexte :
L’équipe Recherche Opérationnelle, Ordonnancement et Transport, l’équipe Bases de Données et
Traitement des Langues Naturelles (BDTLN) et la société Symphonics proposent un financement de
thèse de doctorat à temps plein pour un début au printemps 2025. La thèse sera basée à Tours avec la
moitié du temps dans les locaux de l’entreprise et l’autre moitié au sein du laboratoire.
La gestion d’un système électrique suppose un équilibre à chaque instant entre production et
consommation. Cela ne peut se faire qu’en modifiant soit la production, soit la consommation ; c’est
ce que l’on dénomme flexibilités dans le système électrique. L’introduction croissante des énergies
renouvelables impose l’augmentation du gisement de flexibilités et notamment celles se trouvant chez
les consommateurs représentant une source peu coûteuse pour satisfaire le besoin de décarbonation
du mix énergétique, enjeu majeur aussi bien sur le plan écologique, qu’économique et social.
C’est le créneau choisi par La société Symphonics qui se positionne sur le marché en proposant de
transformer les bâtiments résidentiels et tertiaires en batteries par le pilotage à la hausse et à la baisse
des équipements énergivores dont la consommation peut être déplacée dans la journée (par ex.
Chauffe-eau, chargeur de véhicule, etc.).

Sujet :
Cette thèse CIFRE propose de s’attaquer à l’optimisation sous contraintes des équipements
consommateurs d’électricité dans les secteurs résidentiel et tertiaire, un enjeu crucial à l’ère de la
transition énergétique et de la digitalisation. L’objectif est de développer des modèles et des
algorithmes qui permettent de maximiser l’efficacité énergétique et la flexibilité des systèmes tout en
respectant les contraintes spécifiques (confort, stabilité du réseau, coûts) associées à ces
environnements.
L’ensemble des modélisations permettant de définir les meilleurs optimums temps réel
possibles nécessite la résolution de plusieurs verrous relevant de l’hybridation de méthodes
issues de la science des contraintes et de la science des données.
Ces verrous sont abordés sous l’angle de l’optimisation qui peut être formulée comme un problème
multi-agents en recherche opérationnelle. Plusieurs agents (la société Symphonics, les clients, les
acteurs du réseau électrique) interviennent dans le processus et leurs objectifs propres sont à prendre
en compte. Par exemple, certains clients voudront optimiser un niveau de confort en termes de
chauffage, et garantir la charge d’un véhicule électrique. A l’échelle du système, la société Symphonics
peut vouloir réduire les émissions de CO2 ou les coûts de livraison de l’électricité. Il faut donc optimiser
la consommation d’électricité tout en tenant compte des différents objectifs des agents. Dans le
contexte de cette thèse, les verrous pour résoudre un tel problème sont nombreux :
– Le passage à l’échelle : l’entreprise vise une application pour des centaines de milliers de
clients, ce qui reste une difficulté majeure pour une résolution efficace du problème en
recherche opérationnelle, dans des temps compatibles avec le scénario industriel (moins de
15 minutes) ;
– Cette optimisation doit s’appuyer sur des informations qui devront être prédites au niveau de
chaque client au fil du temps, sur la base de la connaissance contextuelle et de préférences
(par exemple, prédire la consommation électrique d’un chauffe-eau en hiver heure par heure
pour un client donné) ;
Comme toute approche reposant sur des modèles prédictifs, une attention particulière devra être
apportée à l’explicabilité des solutions proposées.
Enfin, l’hybridation de la recherche opérationnelle et de l’apprentissage artificiel prendra son sens
pour définir des algorithmes de résolution efficaces du problème. Les méthodes d’apprentissage
artificiel pourront notamment permettre de rechercher les meilleurs paramètres de la méthode multi-
agents, ou réduire le nombre de clients en utilisant des approches de clustering de flux de données
pour obtenir des groupes homogènes des clients au cours du temps.
Les modèles et algorithmes feront l’objet de phases de validation empiriques avec les partenaires
équipementiers et fabricants de la société Symphonics et seront pilotées par le Doctorant.

Profil du candidat :
BAC+5. Jeune diplômé ou première expérience
Le candidat recruté devra avoir des connaissances solides en Recherche Opérationnelle (complexité,
méthodes exactes et heuristiques, programmation mathématique) et en apprentissage artificiel et
architectures profondes. Des connaissances en explicabilité seront appréciées.
La maîtrise de certains outils logiciels est un plus : Python, Google Cloud Platform, PostgreSQL, Solveur
MILP.

Formation et compétences requises :

Adresse d’emploi :
Tours: partage du temps entre Symphonics et le LIFAT.

Document attaché : 202411181233_Offre Thèse Symphonics .pdf

Mar
16
Sun
2025
Offre de thèse – modèles génératifs profonds pour la génération procédurale et la génération procédurale inverse
Mar 16 – Mar 17 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IGN-ENSG, LASTIG, Université Gustave Eiffel
Durée : 36 mois
Contact : nicolas.audebert@ign.fr
Date limite de publication : 2025-03-16

Contexte :
L’entraînement de modèles d’apprentissage profond pour l’interprétation d’images aériennes et satellitaires requiert de grandes quantités de données annotées. Toutefois, si d’importants volumes de données d’Observation de la Terre (OT) sont disponibles grâce aux satellites européens Sentinel-2 et aux programmes français d’imagerie SPOT et BDORTHO, cette masse de données est non-étiquetée. En effet, peu d’images de télédétection sont annotées avec des information sémantiques utiles pour entraîner des modèles profonds. Ce phénomène est d’autant plus critique pour la cartographie d’urgence: les catastrophes naturelles sont des événements rares, ce qui réduit d’autant les images disponibles.
Pour pallier ces difficultés, la recherche en intelligence artificielle s’est intéressée à la génération de bases de données d’images synthétiques. La popularisation de l’intelligence artificielle dite générative permet ainsi de produire des jeux de données annotés, en générant des images diverses dans des configurations connues. La génération procédurale est en outre un procédé historiquement bien connu dans la communauté du jeu vidéo, permettant de produire rapidement de grands mondes virtuels en trois dimensions.

Sujet :
L’objectif principal de cette thèse est de combiner les forces de l’apprentissage profond et de la génération procédurale basée grammaire pour les données géospatiales.
La génération procédurale désigne les algorithmes de création de contenu, en particulier pour le jeu vidéo. Ces techniques permettent de créer des mondes virtuels cohérents , notamment pour la modélisation et la simulation du réel, La génération procédurale connaît un regain de popularité car elle permet de produire de grands volumes de données synthétiques annotées, sur lesquels entraîner des réseaux de neurones profonds . Historiquement, la génération procédurale s’est appuyé sur quatre grande familles de méthodes: les approches basées exploration, les approches par satisfaction de contraintes, les méthodes basées grammaire et les approches par apprentissage.
Les approches basées grammaire (ou assimilées, par exemple basées système-L ) sont particulièrement intéressantes. Elles se fondent sur un langage formel qui définit quelles sont les instances acceptables des objets à générer. Cette grammaire permet d’inclure une connaissance experte et peut être considérée comme interprétable. Cependant, définir manuellement une grammaire requiert une certaine expertise et implique souvent une approche itérative par essai-erreur. En comparaison, la génération procédurale par apprentissage statistique permet d’apprendre à générer des objets à partir d’un corpus existant. Toutefois, les modèles appris sont susceptibles de générer des objets inacceptables (par exemple, des maisons sans aucune porte). Par ailleurs, les approches récentes, notamment par apprentissage profond, nécessitent des jeux de données de grande taille pour exceller, ce qui n’est pas toujours possible. En particulier, les entités géographiques urbaines (typiquement les routes et les bâtiments) doivent respecter des a priori géométriques forts qui peuvent être complexes à satisfaire.
Ce sujet de thèse s’intéresse ainsi à l’hybridation entre la génération procédurale symbolique, en particulier exploitant les grammaires, et l’apprentissage profond. Des approches hybrides peuvent permettre d’apprendre à partir de moins d’exemples, tout en respectant mieux les contraintes imposées sur les données par une grammaire.
L’objectif est double:
1. Dans un premier temps, il s’agit de concevoir des architectures génératives de réseaux de neurones dont les sorties sont contraintes par une grammaire. Ainsi, le modèle sera garanti de ne générer que des objets acceptables vis à vis d’une grammaire fournie par l’usager . Plus précisément, on s’intéressera:
• à contraindre les cartes de segmentation d’un modèle prédictif à respecter une grammaire sur l’agencement spatial des objets,
• ou bien à des modèles génératifs qui ne peuvent produire que des objets acceptables selon une grammaire imposée, par exemple de bâtiments.
2. Dans un second temps, de développer des modèles capables d’inférer tout ou partie d’une grammaire à partir d’un corpus d’exemples (génération procédurale inverse et inférence de grammaire). En particulier, on cherchera:
• des méthodes capables d’apprendre automatiquement les symboles terminaux du langage, notamment à l’aide de l’apprentissage de prototypes ,
• puis à des méthodes capables de déduire les règles de production de la grammaire .
Ces techniques de génération seront appliquées à divers types de données géospatiales en 2D et 3D pour la génération de villes . En particulier, les applications pourront inclure les plans cadastraux (emprises au sol de parcelles et de bâtiments), des modèles 3D de bâtiments (produits manuellement ou extraits du Lidar HD) ou des cartes d’occupation du sol.

Profil du candidat :
Le ou la candidate idéale dispose d’une formation de niveau bac+5 (master ou ingénieur) dans l’un des domaines suivants: science des données, jeu vidéo, géomatique. Il ou elle démontre une expérience de la programmation, en particulier avec le langage Python. Une connaissance des outils de gestion projet informatique, notamment Git, sera appréciée. Une bonne maîtrise de l’anglais (écrit et oral) est un pré-requis. Sans être indispensable, une première expérience avec la génération procédurale, les modèles profonds génératifs ou les données géospatiales est un plus.

Formation et compétences requises :

Adresse d’emploi :
LASTIG, IGN-ENSG, 6-8 avenue Blaise Pascal, Champs-sur-Marne

Document attaché : 202501071048_doctorant.pdf

Mar
20
Thu
2025
Multi-expert anomaly explanation and labelling framework in complex networks
Mar 20 – Mar 21 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : IMT Atlantique LabSTICC CNRS (Brest); AIRBUS DS (É
Durée : 3 years
Contact : cecile.bothorel@imt-atlantique.fr
Date limite de publication : 2025-03-20

Contexte :
Summary: This thesis focuses on anomaly detection, explanation, and labeling in complex networks. We would like to explore and to propose a new adaptive and hybrid explanation method that incorporates interactions with domain experts using preference models from the MCDA field.

Location: IMT Atlantique LabSTICC CNRS (Brest); AIRBUS DS (Élancourt)

Keywords: Complex Networks, Graphs Autoencoders, Anomaly Detection, Explainable AI (XAI), Multi-Criteria Decision Aiding (MCDA)

Supervisors : Cécile Bothorel, Lina Fahed, Arwa Khannoussi, Guillaume Gadek

Funding: COFUND SEED (Co-funded by the European Union) https://www.imt-atlantique.fr/en/research-innovation/phd/seed

Eligibility rules: (1) Did not spend more than 12 months in France since 20 March 2022 (last 36 months). (2) Is / will be awarded a master-level diploma or equivalent for Phd start (from September 2025) (he/she can be graduated during summer) and does not already have a doctoral degree.

To apply: https://seed-apply.imt-atlantique.fr

Application deadline: March 20, 2025

Detailed subject: https://www.imt-atlantique.fr/sites/default/files/recherche/doctorat/seed/research-topics/4-anomaly-detection.html

Starting date: fall 2025

For any question: please contact supervisors cecile.bothorel@imt-atlantique.fr & guillaume.gadek@airbus.com

Sujet :

1. Definition

Keywords: Complex Networks, Graphs Autoencoders, Anomaly Detection, Explainable AI (XAI), Multi-Criteria Decision Aiding (MCDA)
1.1. Domain and scientific/technical context

Temporal graphs, representing interactions over time, are crucial for analyzing datasets in areas like Industry 4.0, finance, transportation, biology, social networks, cybersecurity, and defence and intelligence. Detecting anomalies in temporal networks reveals unusual patterns and events, thus providing deep insights into the system behavior over time. Such graphs or networks typically grow every second and gather millions of attributed nodes and edges. Relevant behaviors are grounded in the nodes and edges characteristics as well as in higher-level patterns (local neighborhood, temporal similarities). Operational needs are based on constant monitoring (anomaly detection, alerts), for which there is a very strong need for tools: for the detection in itself, but also for the understanding of the detected anomalies in order to enable quick and relevant responses and preventive measures. Notions of traceability and actionability of the alert are also key to the adoption of the technology.
1.2. Scientific/technical challenges

This thesis focuses on anomaly detection, understanding, and labeling in complex networks for socially impactful applications such as social networks, financial exchange, health, defence, energy, etc. The two main challenges are: (i) the limited access to labeled data for anomaly detection, (ii) and when labels are obtained, they are often incorrect or unusable due to errors made by domain experts in labeling anomalies. To address these challenges, we propose to take advantage of three research areas: anomaly detection (for graphs), explainable AI (XAI), multi-criteria decision aiding (MCDA).

In order to detect anomalies, we will study the GNNs (Graph Neural Networks), and the use of auto-encoders de-signed for semi-supervised tasks with a small training set even if it contains labeling errors [1]. Several graph explanations methods have been proposed in the literature [2] that focus on different graph elements (nodes, edges, features). Both graph elements describing anomalies and explanations are criteria that experts can use to label anomalies. However, this may not provide actionable insights as experts may focus on intuitions derived from previous expertise. The challenge here is to provide experts with intuitive graph elements and explanations allowing to understand the anomalies.
1.3. Considered methods, targeted results and impacts

We propose a new adaptive and hybrid explanation method that incorporates interactions with experts. This can be done using preference models from the MCDA field, which allow the representation of decision strategies and human behaviour [3]. We expect to:

Provide explanations generated from traditional XAI methods [8] and a combination of dedicated eval-uation metrics.
Enrich and adapt explanations with multiple criteria related to multiple domain experts. Such criteria include the experts’ decision strategies, their behaviours, and insights into their prior expertise.
Iteratively involve experts in the loop, i.e., the interaction between the explanation method and the experts can be performed iteratively in such a way that at the end the experts are given the intuitive graph elements and explanations they need to understand the anomalies well and to label them correctly.

In this project, we plan to develop an experimental protocol on both synthetic and real-world impact datasets. This work will be an important step forward in the field of anomaly detection and understanding, and will open important perspectives related to the intersection of our different research domains.
1.4. Environment (partners, places, specific tools and hardware)

The academic partners are members of the DECIDE team at Lab-STICC (CNRS) and IMT Atlantique’s Data Science Department (DSD) in Brest, where interdisciplinary research exploit synergies between decision support and data science to address scientific, industrial and societal issues arising from decision-making problems in complex sys- tems (environment, transport, energy, social networks, health, defence).

The industrial partner, Airbus Defence and Space, is participating through its team of Artificial Intelligence for De- fence Digital. The team, based in Elancourt near Paris, is constituted of 20 data scientists, and contributes on re- search, technology development and deployment of AI assets within Airbus products, mainly in the Defence & In- telligence areas.

Airbus provides 3 use cases with datasets and interaction with business experts related to the use cases, all dir- ectly related to the Intelligence business. A) detecting coordinated behaviour in social networks for Cyber Inform- ation Warfare. B) highlighting patterns and edges of interest in communication interceptions (COMINT), most likely through simulated data. C) Smart assistant for investigation analyst on Knowledge Graphs: the product Massive Intelligence extracts & generates high-level data under the form of entities and relations, through the IKDB software. The tool would help the end-user to raise alerts on the extracted knowledge itself, highlighting suspicious cases and connections.
1.5. Interdisciplinarity aspects

The work combines 3 research domains: anomaly detection (for graphs), explainable AI (XAI), and multi-criteria decision aiding (MCDA). This thesis involves both theoretical, experimental and technical research to to serve the industrial interests and applications of Airbus Defence&Space.
1.6. References

[1] GILES, Bastien, JEUDY, Baptiste, LARGERON, Christine, et al. Suspicious: a Resilient Semi-Supervised Framework for Graph Fraud Detection. IEEE 35th International Conference on Tools with Artificial Intelligence (ICTAI), 2023.

[2] YUAN, Hao, YU, Haiyang, GUI, Shurui, et al. Explainability in graph neural networks: A taxonomic survey. IEEE transactions on pattern analysis and machine intelligence, 2022.

[3] KHANNOUSSI, Arwa, OLTEANU, Alexandru-Liviu, MEYER, Patrick, et al. A metaheuristic for inferring a ranking model based on multiple reference profiles. Annals of Mathematics and Artificial Intelligence, 2024.

[4] GADEK, Guillaume. “From community detection to topical, interactive group detection in Online Social Networks.” IEEE/WIC/ACM International Conference on Web Intelligence-Companion Volume. 2019.

[5] PRIEUR, Maxime, et al. “Shadowfax: Harnessing textual knowledge base population.” Proceedings of the 47th International ACM SIGIR Conference on Research and Development in Information Retrieval. 2024.

[6] BAUTISTA, Esteban, BRISSON, Laurent, BOTHOREL, Cécile, SMITS, Grégory. “MAD: Multi-Scale Anomaly Detection in Link Streams”. The 17th ACM International Conference on Web Search and Data Mining, Mar 2024, Mérida (Yucatan), Mexico.

[7] DAO, Vinh-Loc, BOTHOREL, Cécile, LENCA, Philippe. Community structure: A comparative evaluation of community detection methods. Network Science, 2020, 8 (1), pp.1-41.

[8] CHRAIBI-KAADOUD, Ikram , FAHED, Lina, LENCA, Philippe. Explainable AI: a narrative review at the crossroad of Knowledge Discovery, Knowledge Representation and Representation Learning. MRC@IJCAI 2021: Twelfth International Workshop Modelling and Reasoning in Context, 2021, pp.28-40.
2. Partners and study periods
2.1. Supervisors and study periods

IMT Atlantique: Prof.Cécile Bothorel, Assoc.-Prof. Lina Fahed and Assoc.-Prof. Arwa Khannoussi, IMT Atlantique, Brest, France.

Industrial partner: Dr. Guillaume Gadek, Airbus Defence and Space, Versailles, France

The PhD student will stay 9 months at Airbus Defence and Space.
Academic international partner(s): The PhD student will also spent 3 months at an international academic partner, probably LUT University, Finland (to be confirmed).

2.2. Hosting organizations
2.2.1. IMT Atlantique

IMT Atlantique, internationally recognized for the quality of its research, is a leading French technological university under the supervision of the Ministry of Industry and Digital Technology. IMT Atlantique maintains privileged relationships with major national and international industrial partners, as well as with a dense network of SMEs, start-ups, and innovation networks. With 290 permanent staff, 2,200 students, including 300 doctoral students, IMT Atlantique produces 1,000 publications each year and raises 18€ million in research funds.
2.2.2. Airbus Space and Defence

Airbus Space and Defence purpose is to improve life on Earth and beyond through our cutting-edge space technologies. From in-orbit delivery of satellites and spacecraft equipment to the smallest electronic components, Airbus provides products and services to customers around the world. We deliver telecommunications and navigation satellites that enable people to connect everywhere and navigate safely on Earth. The data from Airbus-built Earth observation satellites, such as Sentinel-2 or MetOp, bring insight that helps us to better understand and protect our planet.

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
IMT Atlantique, campus Brest

Document attaché : 202502251404_4-anomaly-detection.pdf

Mar
21
Fri
2025
Image Reconstruction for Low field MRI
Mar 21 – Mar 22 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : IMT Atlantique
Durée : 36 mois
Contact : seed-contact@imt-atlantique.fr
Date limite de publication : 2025-03-21

Contexte :
Domain and scientific/technical context

This project aims to develop computational imaging methods for low-field MRI [Arnold2023, Hennig2023]. Its aim is to develop low-cost, portable neuroimaging systems that integrate artificial intelligence (AI) [Iglesias2022] with low-field MRI technology. Unlike conventional MRI systems that rely on high magnetic fields (1.5-7T), this approach aims to democratise access to MRI by enabling imaging at the patient’s bedside.

The project is highly interdisciplinary, combining expertise in medical imaging, image processing, AI and neuroscience. It targets perinatal neuroimaging, in particular for premature newborns, for whom traditional MRI remains complex. By combining hardware development (in collaboration with the company Multiwave) and AI-driven image reconstruction, this project could redefine neuroimaging and improve its accessibility in clinical settings.

Scientific/technical challenges

The project tackles fundamental challenges in low-field MRI and computational imaging, necessitating a multidisciplinary approach. One of the very first challenges is related to signal-to-noise ratio limitations. The weak magnetic fields in low-field MRI produce inherently noisier signals, demanding innovative AI-driven denoising and reconstruction strategies tailored to low SNR conditions. A second challenge is related to the optimization of hardware design: developing a portable, cost-efficient MRI system requires a careful trade-off between coil design, acquisition protocols, and system portability while maintaining sufficient imaging resolution.

Our scientific objective will focus mainly on advanced AI methodologies. Incorporating physics-guided deep learning models that explicitly integrate the underlying MRI signal formation process to enhance reconstruction reliability and interpretability. To this end, part of the project will be dedicated to the development of efficient computational strategies: Achieving real-time image reconstruction necessitates optimized numerical solvers and meta-learning techniques for rapid inference at the point of care.

Sujet :

The project will leverage physics-informed deep learning for image reconstruction, integrating prior knowledge of MRI signal formation to enhance image quality. Variational optimization techniques [Fablet2021] will be explored to control the balance between acquired data and reconstructed images [Crockett2022], minimizing artifacts and improving clinical reliability. Meta-learning algorithms [Andrychowicz2016] will be implemented to optimize reconstruction efficiency for real-time bedside applications.

The expected results include the development of a fully functional image reconstruction prototype for low-field MRI, achieving millimetric resolution and demonstrating feasibility for neonatal brain imaging. The impact of the project extends beyond neonatal imaging, offering a scalable and accessible MRI solution for broader applications such as stroke detection [Yuen2022] and point-of-care diagnostics, particularly in low-resource settings. By bridging advances in AI and medical imaging, such a project has the potential to transform clinical neuroimaging and improve patient care worldwide.

Profil du candidat :
The skills required to carry out this work include machine learning, image processing and applied mathematics. Knowledge of computer science and programming (Python) will also be required in order to develop the associated algorithms.

Formation et compétences requises :
Master / Engineering school. Machine Learning, Deep Learning, Image Processing, Medical Imaging.

Adresse d’emploi :
IMT Atlantique, Campus de Brest.

The PhD student will stay 3 months each at an international academic and an industrial partners, respectively at University of Lausanne and Multiwave enterprise.

Document attaché : 202503101503_2025-SEED-image-reconstruction.pdf

Apr
4
Fri
2025
Knowledge-Based Language Models
Apr 4 – Apr 5 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : DIG team, Télécom Paris, Institut Polytechnique de
Durée : 3 years
Contact : nils.holzenberger@telecom-paris.fr
Date limite de publication : 2025-04-04

Contexte :

Sujet :
Hello,

We are hiring 2 PhD students to work on combining language models with structured data, starting from September 2025, at Telecom Paris, Institut Polytechnique de Paris.

Large Language Models are amazing, and with our research project, we aim to make them even more amazing! Our project will connect large language models to structured knowledge such as knowledge bases or databases. With this,

1. language models will stop hallucinating

2. language models can be audited and updated reliably

3. language models will become smaller and thus more eco-friendly and deployable

We work in the DIG team at Telecom Paris, one of the finest engineering schools in France, and part of Institute Polytechnique de Paris — ranked 38th in the world by the QS ranking. The institute is 45 min away from Paris by public transport, and located in the green of the Plateau de Saclay.

Excited about joining us? Tick these boxes:

1. Have a good background in natural language processing, machine learning, and knowledge representation

2. Have a master’s degree (or equivalent)

3. Be of European nationality (imposed by our sponsor, the French Ministry of Armed Forces)

Check out our Web site to apply: https://suchanek.name/work/research/kb-lm/index.html

Fabian Suchanek & Nils Holzenberger

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
19 place Marguerite Perey, 91120 Palaiseau, France

Apr
30
Wed
2025
Apprentissage géométrique : vers des réseaux de neurones sur graphes à haute expressivité
Apr 30 – May 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LITIS
Durée : 36 mois
Contact : Sebastien.Adam@univ-rouen.fr
Date limite de publication : 2025-04-30

Contexte :
Nous proposons une thèse financée au laboratoire LITIS sur le sujet décrit dans la pièce jointe.

Sujet :
Cf. PJ

Profil du candidat :
Cf PJ

Formation et compétences requises :
cf PJ

Adresse d’emploi :
Laboratoire LITIS, UFR ST, Site du Madrillet
76800 Saint Etienne du Rouvray

Document attaché : 202504091055_TheseGapHIX.pdf

Offre de thèse à Paris, institut Sorbonne Center for Artificial Intelligence (SCAI)
Apr 30 – May 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : CNAM/Sorbonne Université
Durée : 36 mois
Contact : cedric.du_mouza@cnam.fr
Date limite de publication : 2025-04-30

Contexte :
Encadrants:
Cédric du MOUZA (dumouza@cnam.fr, lab. CEDRIC, CNAM Paris)
Raphaël FOURNIER-S’NIEHOTTA (Raphael.Fournier@lip6.fr, LIP6-ComplexNetworks, Sorbonne Université)
Camelia CONSTANTIN (camelia.constantin@lip6.fr, LIP6-Équipe BD, Sorbonne Université)

Sujet :
L’objectif de la thèse est d’améliorer l’enrichissement de graphes de connaissances en utilisant des techniques avancées issues des domaines des algorithmes de graphes, de la sémantique et de l’apprentissage automatique. Cette démarche vise à améliorer la qualité et l’utilité du graphe en découvrant et en intégrant des informations qui ne sont
pas explicitement présentes mais qui peuvent être inférées à partir des relations et des attributs existants.

L’enrichissement des graphes de connaissances s’appuie sur une approche hybride combinant algorithmes de graphes, NLP et apprentissage automatique, qui permet d’extraire et d’intégrer des informations implicites en exploitant les structures et relations existantes. Un défi majeur réside dans le liage d’entités, étape souvent imprécise qui entraîne une fragmentation due au manque de relations explicites et à la diversité des formulations. L’objectif est d’améliorer cette phase en détectant et fusionnant les entités redondantes via un post-traitement reposant sur des modèles de similarité et des techniques de clustering. Ainsi, l’approche renforce la qualité structurelle et sémantique du graphe, le rendant plus exploitable pour la recherche et la gestion des connaissances. Pour atteindre ces objectifs, nous combinons : (i) des algorithmes de graphes pour identifier motifs récurrents, connexions et communautés, (ii) des modèles d’apprentissage profond (BERT, GPT) pour évaluer la similarité sémantique, et (iii) des modèles prédictifs entraînés pour inférer de nouvelles relations.

Ce sujet propose une approche exploratoire pour la construction et l’enrichissement de graphes de connaissances en combinant méthodes d’intelligence artificielle (IA), sur graphes (GraphML) ou autour du texte, avec des algorithmes classiques de graphes, se plaçant ainsi au cœur des thématiques de recherche de institut Sorbonne Center for Artificial Intelligence. Les contributions attendues visent à développer et adapter des méthodes IA faisant un usage hybride d’algorithmes de graphe et d’apprentissage automatique, tout en apportant des solutions pour enrichir les graphes de connaissances dans le domaine des bases de données. Les résultats de cette recherche seront appliqués à la base Studium (http://studium.univ-paris1.fr/) de l’Université Panthéon-Sorbonne, dans le cadre d’une collaboration existante entre les Laboratoires LIP6 (SU), CEDRIC (CNAM) et LAMOP (Université Panthéon-Sorbonne) qui s’inscrit dans le projet ANR Laura en cours de soumission.

Profil du candidat :
Master 2 ou bac+5 en informatique

Formation et compétences requises :
Nous recherchons un.e candidat.e motivé.e avec avec de solides bases en informatique et en apprentissage automatique et idéalement de bonnes notions de graphes. La maîtrise d’un langage de programmation (comme Python) est indispensable. Des connaissances en bases de données (SQL, indexation) et algorithmique sont un plus.

Adresse d’emploi :
CNAM Paris – 2, Rue Conté 75003 Paris

Document attaché : 202503312054_theseSCAI.pdf

Réseaux de neurones sur graphes dynamiques : vers des modèles plus expressifs
Apr 30 – May 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LITIS
Durée : 36 mois
Contact : Sebastien.Adam@univ-rouen.fr
Date limite de publication : 2025-04-30

Contexte :
Nous proposons une thèse financée au LITIS de l’INSA de Rouen.

Sujet :
cf PJ

Profil du candidat :
cf PJ

Formation et compétences requises :
cf PJ

Adresse d’emploi :
Laboratoire LITIS, INSA de rouen
76800 Saint Etienne du Rouvray

Document attaché : 202504091057_TheseDGNN.pdf

May
12
Mon
2025
LLM-aided data exploration and storytelling
May 12 – May 13 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIFAT & LIFO
Durée : 3 ans
Contact : alexandre.chanson@univ-tours.fr
Date limite de publication : 2025-05-12

Contexte :
In the era of data-driven decision-making, extracting insights from large datasets is crucial. Data narration refers to transforming data insights into interactive visual stories to enhance understanding and communication. While recent advances in AI and LLMs have introduced automation in data exploration and storytelling, challenges remain in personalization, user intent recognition, and interactive data narration.

*** Detailed subject attached ***

Sujet :
Key Research Questions :

– User Intent & Interaction: How can user preferences and feedback guide LLM-driven data storytelling?
– Personalization: How can data stories be adapted to different audience profiles, knowledge levels, and presentation styles?
– Exploration-Narration Interplay: How can data exploration and storytelling be seamlessly integrated to allow iterative user intervention?
– Quality Assessment: How can we evaluate and benchmark the effectiveness of generated data stories?

The candidate is expected to contribute to one of the first three research questions while considering the fourth as a transversal aspect.

*** Detailed subject attached ***

Profil du candidat :
Master’s degree in Computer Science :
– Strong background in databases and machine learning
– Interest in data exploration, storytelling, or NLP

Formation et compétences requises :
— Application Deadline: May 12, 2025 —
To apply, please email the following documents to the supervisors:
– CV
– Master’s transcripts
– Cover letter
– Reference letters, if any

Adresse d’emploi :
Université de Tours site de Blois

Document attaché : 202502191608_phd-llm-storytelling.pdf

May
15
Thu
2025
Thèse INRIA, DGA, LERIA – Rennes / Angers
May 15 – May 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Centre INRIA de l’Université de Rennes
Durée : 3 ans
Contact : nicolas.gutowski@univ-angers.fr
Date limite de publication : 2025-05-15

Contexte :
The project involves three partners: Inria, Leria and DGA TT.

Inria is the National Research Institute for Digital Science and Technology. This center for scientific excellence is currently directing the French Digital Programs Agency and is on the frontline of digitalization in Europe while conducting world-class research covering a wide range of disciplines: computer science, mathematics, and simulation software. International and industrial collaborations, ground-breaking research, software development, artificial intelligence, quantum- and cyber technologies and deep tech startups are the DNA of the institute. Inria ranks 16th worldwide at the AI Research ranking while being the number one European institute for frontier research in digital sciences.

LERIA (Laboratory for Computer Science Research in Angers) is a dynamic research unit of the University of Angers, bringing together around 40 members, including 23 faculty researchers and a vibrant community of PhD students and collaborators. Its scientific focus lies at the intersection of Artificial Intelligence and Optimization, with research spanning from theoretical models for knowledge representation and reasoning to advanced algorithms for solving complex combinatorial problems. Bridging fundamental research and real-world applications, LERIA actively contributes to both academic and industrial innovation in intelligent computing.

DGA TT (French Procurement Agency – Land Techniques) is the French defense center dedicated to supporting and evaluating all land-based military systems. Its teams specialize in combat systems, ergonomics, weaponry, protection, robotics, and vehicle dynamics. With key sites in Bourges and Angers, the Angers facility focuses on the characterization and real-world testing of military vehicles, including their dynamic behavior and resistance to harsh environments. Spanning over 150 hectares, the site offers specialized tracks and state-of-the-art facilities to simulate extreme mechanical and climatic conditions – ensuring that equipment performs reliably under the most demanding scenarios.

Recruiting team: The recruited researcher will join a multi-disciplinary team involving established, full-time research scientists of all ages, MSc, PhD and postdocs (~30 ppl). The training programme intends to prepare candidates for scientific positions, either in academia or industry, by working in a research-intensive environment which fosters both scientific excellence (world-class researchers and over 65 prestigious ERC grants) and entrepreneurship (over 200 startups launched and a dedicated Inria Startup Studio). You will also have access to an extensive portfolio of training courses on digital science and technology, scientific programming or Artificial Intelligence. The candidate will have the opportunity to share his time in Rennes and Angers, through a flexible programme. He will be recruited by Inria in the Beaulieu Scientific Campus of University of Rennes, Bretagne (France), a medium town (~220.000 inhabitants) close from Paris and from the sea, with an intense student life (25% of the population). and Angers (France’s top city to live in, 2022) and Rennes (1st student city in France, 2024, and 8th in Europe for quality of life, 2019) both offer an exceptional quality of life, a rich history, vibrant culture, and a thriving economy.

Sujet :
Apply here : https://jobs.inria.fr/public/classic/fr/offres/2025-08786

This PhD project aims for an advance in the simulation and design of metamaterials – engineered structures with unique physical properties surpassing natural materials. It aims to develop automated finite element methods to enhance numerical modeling, focusing on precision and efficiency in simulations while enabling predictive design of adaptive systems. The research targets critical defense technologies, including stealth, cloaking, and wave manipulation, with applications spanning multispectral furtivity, dynamic resilience, and active wave modulation, relevant to both defense and civilian contexts.

This PhD project, titled “Artificial Intelligence for Optimizing the Mechanical Resilience of Systems under Severe Vibratory Stress: Application to Fatigue Testing of Military Vehicles” aims to advance the methodologies of the NF X 50-144 standard, a key framework for environmental testing in mechanical engineering. The research will harness artificial intelligence (AI) to improve vibration analyses, offering new insights into the resilience of complex systems under extreme conditions, with a focus on defense applications.

Vibration analysis plays a vital role in ensuring the durability and reliability of military vehicles and their embedded systems, such as armament, communication, and sensor technologies. These systems face intense and variable vibrational stresses from diverse operational environments, including rugged terrains and dynamic scenarios, which current testing approaches, based on simplified assumptions, often fail to fully capture. This project will explore AI-driven solutions to address these challenges, enhancing the ability to predict fatigue and mechanical performance through advanced techniques like classification of non-stationary signals and innovative modeling and classification approaches.

The research will tap into the potential of AI tools, such as autoencoders and other learning frameworks, to process complex vibration data and uncover patterns which traditional methods overlook. By refining how we assess and interpret these signals, the project aims to deliver more robust and adaptable solutions for evaluating system behavior. As AI becomes a cornerstone of future defense technologies, this work will position you at the forefront of innovation, contributing to both scientific progress and strategic advancements in military resilience.

Offered in collaboration with Inria, the University of Angers, and DGA Land Techniques, this PhD provides a unique platform for candidates passionate about AI, mechanical engineering, and defense. The outcomes will directly enhance the reliability of military vehicles, with broader implications for industries like aerospace and automotive, potentially shaping standards used by leading organizations. Based between Rennes and Angers, the project combines access to cutting-edge resources with a multidisciplinary team, offering an exceptional opportunity to make a meaningful impact in a high-stakes field.

Profil du candidat :
MSc (or soon-to-be) graduates

Formation et compétences requises :
This PhD, blending AI and mechanical resilience for military vehicles, seeks motivated MSc (or soon-to-be) graduates with the following qualifications:

Graduation Topics: Ideal profiles are those with backgrounds in computational mechanics, AI/data science and/or advanced scientific computing. Candidates can come from various MSc-level curriculums involving signal processing, machine learning, computational mechanics (vibration, fatigue, or structural dynamics), vehicle engineering (e.g., mechatronics), physics or applied mathematics. Experience in implementing numerical methods in high-level programming languages (Matlab, Python, Julia, …) is essential.
Academic Excellence: Outstanding curriculum with top-class grades, reflecting a strong academic track record. Candidates are expected to possess outstanding problem-solving abilities and a proven aptitude for teamwork.
Computer Literacy: Proficiency in navigating advanced algorithms and theoretical concepts, with strong analytical skills.
Citizenship: Should be an EU citizen due to the defense-related nature of the project.
Passion and Drive: Enthusiasm for AI, defense applications, and advancing engineering solutions.

Adresse d’emploi :
Centre Inria de l’Université de Rennes
Campus universitaire de Beaulieu
Avenue du Général Leclerc
35042 Rennes Cedex

May
19
Mon
2025
sujet de thèse : Clustering sous contraintes de séquences temporelles multivariées et hétérogènes – Application à des données hydrologiques
May 19 – May 20 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : ICube Strasbourg
Durée : 3 ans
Contact : florence.leber@engees.unistra.fr
Date limite de publication : 2025-05-19

Contexte :
Cette thèse s’inscrit dans le champ de l’apprentissage non supervisé ou faiblement supervisé appliqué aux données temporelles. Le clustering / classification, qui consiste à partitionner l’ensemble des objets analysés en groupes ou clusters, est une des approches les plus employées et repose sur une mesure de similarité entre les objets. Plus particulièrement, le clustering de séquences soulève des problèmes liés à la mesure de similarité entre deux individus. Par exemple, dans le suivi des cours d’eau, certains phénomènes répondent à une fréquence annuelle liée au cycle naturel de l’eau, mais peuvent être décalés dans le temps du fait de l’éloignement géographique et de la météorologie locale. Or, la mesure de similarité doit pouvoir prendre en compte ces potentiels décalages ou légère distorsions dans le temps. De nombreuses méthodes ont été proposées dans la littérature pour prendre en compte ces spécificités par exemple, Dynamic Time Warpping, Longest Common SubSequence , ou plus récemment des représentations par shapeletsou par réseau de neurones.

Sujet :
L’objectif principal de la thèse est de développer de nouvelles approches pour mesurer la similarité entre deux séries temporelles multivariées en prenant en compte des valeurs manquantes distribuées de manière hétérogène dans le temps et entre les variables. Il s’agira de définir des solutions pour intégrer l’information temporelle (espacement entre deux pas de temps, fréquences temporelles des mesures, …) dans le calcul de la similarité. Nous nous intéresserons également à la manière d’intégrer la connaissance de l’expert via des annotations, aussi appelées contraintes (par exemple, proximité/éloignement entre deux individus sur la base d’informations externes), portant à la fois sur des liens temporels et spatiaux entre différents individus, afin d’améliorer la correspondance entre le clustering obtenu et les attentes de l’expert. Ces approches seront expérimentées sur les données de suivi des cours d’eau, qui soulèvent différentes difficultés, du fait de leur nombre, de leur diversité, et de leur hétérogénéité à la fois spatiale et temporelle. On s’intéressera en particulier aux questions suivantes :
– clustering de séquences constituées de vecteurs de paramètres, sachant que ces paramètres ne sont pas mesurés toujours en même temps
– prise en compte des contraintes temporelles (saisons) ou géographiques (régions hydrographiques)
– couplage des données physico-chimiques avec les données biologiques ou hydrologiques (temporalités différentes)
– exploration des limites des méthodes en nombre et taille de séquences

Profil du candidat :

— Master 2 en Informatique
— Formation en sciences des données, fouille de données, apprentissage.

Formation et compétences requises :

— Connaissances solides en apprentissage automatique et en modélisation de connaissances.
— Bonnes compétences en programmation en Python ou R.
— Bonnes compétences de communication et à l’écrit en anglais.
— Un intérêt pour le sujet d’application

Adresse d’emploi :
UMR ICube, 67400 Illkirch (banlieue sud de Strasbourg, accessible en tram)

Document attaché : 202503231357_Suite_Adqeau.pdf

Offres de stages

Jan
15
Wed
2025
Developing a Super-Resolution Benchmark for Remote Sensing Downstream Applications
Jan 15 – Jan 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRISA
Durée : 4 à 6 mois
Contact : charlotte.pelletier@univ-ubs.fr
Date limite de publication : 2025-01-15

Contexte :
The spatial resolution of freely available multispectral sensors such as Sentinel-2 (10 meter at best) remains a limiting factor for many Earth observation tasks, particularly those involving fine-scale spatial structures such as the delineation of crop boundaries, mapping of urban trees, or identification of individual buildings. Deep learning-based super-resolution (SR) techniques have emerged as an attractive solution to synthetically enhance the spatial detail of such imagery [4]. While numerous SR methods, ranging from convolutional neural networks to transformers and generative models [3], have been proposed, their evaluation typically relies on reconstruction and perceptual metrics. These measures, though common, are tailored for SR models trained on natural images and overlooked challenges cause by cross-sensor SR from satellite images [2]. More importantly, they do not indicate whether the super-resolved data improve the performance, robustness, or interpretability of downstream models used for Earth monitoring [5].

Sujet :
Objectives of this work. This internship aims to bridge this gap by developing a comprehensive benchmark of SR models for downstream learning applications in Earth observation. The goal is to quantify how the reconstruction of fine details in SR imagery impacts the performance of subsequent analysis tasks. The focus will be on Copernicus data, in particular Sentinel-2 imagery, which is freely available and provides global coverage with acquisitions every five days at the equator. The benchmark will include both standard image-based metrics and newly proposed task-aware evaluation criteria tailored to the selected applications.
Work Plan
To address the aforementioned objectives, a tentative work plan is outlined below:
• Literature review: Survey recent SR models and their evaluation in downstream applications using Sentinel-2 or similar optical data.
• Benchmark design: Identify suitable datasets combining Sentinel-2 imagery and higher-resolution references (e.g., PlanetScope, WorldView, or aerial data) for multiple domains such as agriculture, forestry, maritime [1], and urban monitoring.
• Metric development: Explore and propose new metrics that go beyond classical reconstruction or segmentation scores. The objective is to assess how SR influences application-level outcomes, e.g., boundary delineation [6], small-object detection, or vegetation index preservation.
• Experimental benchmarking: Implement and compare several SR models within a unified experimental setup, evaluating their performance using both conventional and newly defined task-aware metrics.
The expected outcomes include a benchmark framework enabling the community to evaluate SR models on a range of downstream applications, as well as a research paper submitted to a top-tier journal.
References
[1] Katerina Kikaki, Ioannis Kakogeorgiou, Paraskevi Mikeli, Dionysios E Raitsos, and Konstantinos Karantzalos. MARIDA: A benchmark for marine debris detection from Sentinel-2 remote sensing data. PloS one, 17(1):e0262247, 2022.
[2] Julien Michel, Ekaterina Kalinicheva, and Jordi Inglada. Revisiting remote sensing cross-sensor single image super-resolution: the overlooked impact of geometric and radiometric distortion. IEEE Transactions on Geoscience and Remote Sensing, 2025.
[3] Aimi Okabayashi, Nicolas Audebert, Simon Donike, and Charlotte Pelletier. Cross-sensor super-resolution of irregularly sampled sentinel-2 time series. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 502–511, 2024.
[4] Peijuan Wang, Bulent Bayram, and Elif Sertel. A comprehensive review on deep learning based remote sensing image super-resolution methods. Earth-Science Reviews, 232:104110, 2022.
[5] Piper Wolters, Favyen Bastani, and Aniruddha Kembhavi. Zooming out on zooming in: Advancing super-resolution for remote sensing. arXiv preprint arXiv:2311.18082, 2023.
[6] Quentin Yeche, Dino Ienco, and Raffaele Gaetano. Field by field: moving from area-based metrics to instance-level agricultural parcel assessment. 2025.

Profil du candidat :
We are looking for a candidate:
• enrolled in a Master 2, École d’Ingénieur, or equivalent program in computer science, data science, or geoinformatics;
• with a strong background in data science, and/or computer vision;
• proficient in Python programming and familiar with at least one deep learning framework (preferably PyTorch);
• with experience in remote sensing or a strong motivation to apply AI to Earth observation;
• with excellent communication skills in French or English;
• and a keen interest in research and scientific publication.

Formation et compétences requises :
We are looking for a candidate enrolled in a Master 2, École d’Ingénieur, or equivalent program in computer science, data science, or

Adresse d’emploi :
Université Bretagne Sud
Campus de Tohannic
56000 Vannes

Document attaché : 202511101259__2025__Master_2_SR_downstream_applications.pdf

Le ConText-GAN pour la génération d’images de microscopie électronique : Augmentation de données par approche générative.
Jan 15 – Jan 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIS UMR 7020 : www.lis-lab.fr
Durée : 5 à 6 mois
Contact : marc-emmanuel.bellemare@univ-amu.fr
Date limite de publication : 2025-01-15

Contexte :
Ce projet s’appuie sur une collaboration entre le laboratoire Informatique et Systèmes (LIS), expert dans l’analyse d’image, et le laboratoire Mephi (IHU Méditerranée Infection), expert en microbiologie et en microscopie électronique. L’EI est une pathologie grave, associée à un diagnostic difficile et une grande mortalité (Habib 2019). L’EI est caractérisée par une infection bactérienne ou fongique de l’endocarde avec une destruction des valves cardiaques et la formation d’un dépôt fibrino-plaquetaire inflammatoire et infecté, ou végétation. La microscopie électronique à balayage (MEB) est une technique de microscopie électronique capable de produire des images en haute résolution de la surface d’un échantillon (lien). Par une approche innovante par MEB, on a démontré une hétérogénéité de l’ultrastructure des vegetations d’EI qui dépend du microorganisme infectieux (Hannachi 2020 ; vidéo). Cette approche innovante a ainsi montré sa force mais elle s’appuie sur une analyse experte des images qui reste manuelle et fastidieuse.

Sujet :
L’objectif du stage est de développer une méthode à base de réseaux profonds pour accélérer l’analyse des images des végétations, c’est-à-dire pour identifier et quantifier automatiquement les éléments biologiques présents (plaquettes, fibrine, globules, bactéries). Nous nous proposons d’utiliser une architecture qui permettra à la fois la détection et la segmentation des objets d’intérêt dans l’image. Cependant, l’entrainement de réseaux profonds demande une quantité importante d’images annotées. Le nombre des images disponibles étant actuellement limité, il s’agit alors de mettre en œuvre une stratégie d’augmentation de données qui pourrait profiter d’une architecture générative d’images. Le ConTextGAN (Hostin 2023) que nous avons développé au LIS permet de produire des images dont le contenu est finement contrôlé. Il a montré ses performances dans le cadre de l’IRM. Aussi, dans le cadre de ce stage le ConTextGAN sera entrainé pour la génération de différents types d’images MEB et les performances seront évaluées par l’apport de ces images sur les performances de segmentation d’un réseau du type YOLO ou nnUnet. Une comparaison des performances du ConTextGAN avec celles des méthodes de diffusion sera (e.g. ControlNet) envisagée.
https://huggingface.co/docs/diffusers/using-diffusers/controlnet#guess-mode

Profil du candidat :
Le candidat ou la candidate de niveau Bac+5, formé(e) au traitement des images, sera intéressé(e) par un projet pluridisciplinaire et l’imagerie médicale.

Formation et compétences requises :
La programmation des algorithmes se fera avec le langage python et les réseaux profonds seront développés avec l’API PyTorch. Des compétences en classification ou en mathématiques appliquées seront particulièrement appréciées.

Adresse d’emploi :
Le stage se déroulera à Marseille dans les locaux de l’équipe Image & Modèles du LIS à St Jérôme (site de Polytech’) ou dans ceux de l’équipe MEPHI de l’IHU Méditerranée Infection, selon les besoins.

Document attaché : 202410160834_Sujet_Master2_ConTextGAN-AugmentationDL-SEM.pdf

Segmentation d’IRM multiplan par réseaux de neurones profonds
Jan 15 – Jan 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire d’Informatique et Systèmes LIS – UMR
Durée : 5 à 6 mois
Contact : marc-emmanuel.bellemare@univ-amu.fr
Date limite de publication : 2025-01-15

Contexte :
Les troubles de la statique pelvienne représentent un enjeu de santé publique. Ils regroupent un ensemble de pathologies associant une perte des rapports anatomiques normaux des organes pelviens, et une altération dramatique de la qualité de vie des malades. Ces pathologies sont handicapantes à des degrés variés mais leur physiopathologie reste encore mal connue ce qui complique leur prise en charge. Dans le cadre d’une collaboration avec le service de chirurgie digestive de l’AP-HM, de nouvelles acquisitions IRM, associées à une reconstruction adaptée, ont permis la visualisation 3D des organes en mouvement. Des résultats probants ont été récemment obtenus et publiés pour l’observation de la vessie et il s’agit de s’intéresser aux autres organes pelviens

Sujet :
Le stagiaire s’attachera à la segmentation des images acquises lors de l’observation par IRM dynamique des déformations des organes pelviens afin de produire des reconstructions 3D des surfaces en mouvement.
Des acquisitions multi-planaires ont été réalisées dans des plans non classiques ce qui complique la reconnaissance des organes. Ainsi la segmentation des principaux organes impliqués est une étape primordiale mais difficile. Les partenaires cliniciens ont réalisé des segmentations manuelles des organes sur ces plans ce qui permet de disposer d’une vérité-terrain. Nous envisageons de proposer un nouveau modèle de réseau, adapté à la configuration des plans d’acquisition.
Les problématiques de recalage, de segmentation et de modèles 3D, au cœur du projet, seront abordées selon les compétences et préférences du stagiaire.

Profil du candidat :
Le candidat ou la candidate sera intéressé(e) par un projet pluridisciplinaire et par l’imagerie médicale. Les domaines abordés concernent les réseaux de neurones profonds, la segmentation d’IRM et la reconstruction 3D.

Formation et compétences requises :
Des compétences en mathématiques appliquées seront particulièrement appréciées. Une expérience de la programmation avec l’environnement python (PyTorch) serait un plus.

Adresse d’emploi :
Le stage se déroulera à Marseille essentiellement au laboratoire d’informatique et des systèmes (LIS) dans l’équipe Images & Modèles sur le campus de St Jérôme

Document attaché : 202410160845_Sujet_Master2_DL&SegmentationMultiPlan.pdf

X-atlas 3D-I, reconstruction automatique d’atlas d’architecture 3D plante entière à partir d’images de micro-tomographie rayons X
Jan 15 – Jan 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Cirad, Montpellier
Durée : 6 mois
Contact : romain.fernandez@cirad.fr
Date limite de publication : 2025-01-15

Contexte :
Mots-clés : 3D Image Analysis, X-ray computed tomography, Segmentation, 3D reconstruction, #DataForGood

Les rizières jouent un rôle central dans la sécurité alimentaire mondiale, et un rôle important dans le changement climatique d’origine anthropique en émettant chaque année 50 mégatonnes de méthane. Le projet interdisciplinaire ARIZE vise à relever le double défi de la transition agroécologique et de la sécurité alimentaire en développant des outils innovants pour l’exploration morpho-anatomique du riz en 3D afin de sélectionner des variétés de riz adaptées aux cultures en sol sec. Dans ce cadre, nous explorons l’architecture interne des plantes de riz en 3D via des images inédites par micro-tomographie aux rayons X à une résolution de 10 µm. Chaque image volumétrique, de l’ordre de 1 To, permet de révéler le réseau 3D des aérenchymes, ces “canaux” internes qui transportent l’oxygène. Automatiser l’analyse de ces structures en 3D serait une première mondiale et constitue le cœur de ce stage.

Sujet :
Concevoir un pipeline complet d’analyse 3D pour reconstruire et caractériser automatiquement le réseau des aérenchymes à l’échelle de la plante entière (racines et feuilles). Les principales missions incluent le développement d’algorithmes de reconstruction 3D topologique et géométrique à partir des volumes d’imagerie (segmentation d’instance, déformation non linéaire de volume, etc.) et l’intégration des outils développés dans un démonstrateur open-source via un plugin Python pour le logiciel Napari, facilitant l’exploration des résultats par un atlas probabilistique interactif en 3D. Le stagiaire travaillera en lien étroit avec le deuxième stagiaire X-atlas 3D, dédié à la segmentation des structures anatomiques par deep learning. Une forte collaboration est prévue pour combiner les résultats dans une solution intégrée.

Profil du candidat :
Étudiant·e en Master 2 ou école d’ingénieur avec spécialisation en informatique, analyse d’images, ou modélisation mathématique. Le langage de programmation utilisé sera Python, en utilisant des outils de développement communautaire et de maintien logiciel (Github, Intégration Continue).

Formation et compétences requises :
Expérience en traitement d’images 3D, en reconstruction volumique et/ou modélisation géométrique appréciée. Intérêt pour le développement d’outils open-source et la collaboration interdisciplinaire. Capacité à travailler en équipe dans un environnement mêlant informatique, biologie et agroécologie.

Adresse d’emploi :
a rémunération selon barème légal des stages sera de 600€ mensuel, avec accès à la restauration collective le midi. Le stage aura lieu au Cirad de Montpellier, 389 Av. Agropolis, 34980 Montferrier-sur-Lez.

Document attaché : 202411271214_Offre stage M2 – 2025 – Xray arbo.pdf

X-atlas 3D-II, segmentation 3D automatique à haut-débit de structures anatomiques à partir d’images de micro-tomographie rayons X
Jan 15 – Jan 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Cirad, Montpellier
Durée : 6 mois
Contact : romain.fernandez@cirad.fr
Date limite de publication : 2025-01-15

Contexte :
Mots-clés : Deep Learning, 3D Image Analysis, X-ray computed tomography, 3D reconstruction, #DataForGood

Les rizières jouent un rôle central dans la sécurité alimentaire mondiale, et un rôle important dans le changement climatique d’origine anthropique en émettant chaque année 50 mégatonnes de méthane. Le projet interdisciplinaire ARIZE vise à relever le double défi de la transition agroécologique et de la sécurité alimentaire en développant des outils innovants pour l’exploration morpho-anatomique du riz en 3D afin de sélectionner des variétés de riz adaptées aux cultures en sol sec. Dans ce cadre, nous explorons l’architecture interne des plantes de riz en 3D via des images inédites par micro-tomographie aux rayons X à une résolution de 10 µm. Chaque image volumétrique, de l’ordre de 1 To, permet de révéler le réseau 3D des aérenchymes, ces “canaux” internes qui transportent l’oxygène. Automatiser l’analyse de ces structures en 3D serait une première mondiale et constitue le cœur de ce stage.

Sujet :
Concevoir un pipeline complet d’analyse 3D pour la segmentation anatomique et l’estimation de caractéristiques complexes en 3D. Dans ce but, le stagiaire aura la responsabilité de réaliser des expérimentations avec des outils de l’état de l’art (modèles dédiés “plante” et modèles-fondation généralistes), et de concevoir une solution technique open-source qui sera mise à disposition dans un démonstrateur open-source via un plugin Python pour le logiciel Napari. Le stagiaire travaillera en lien étroit avec le deuxième stagiaire X-atlas 3D, dédié à la reconstruction architecturale en 3D. Une forte collaboration est prévue pour combiner les résultats dans une solution intégrée.

Profil du candidat :
Étudiant·e en Master 2 ou école d’ingénieur avec spécialisation en informatique, analyse d’images, ou modélisation mathématique. Le langage de programmation utilisé sera Python, en utilisant des outils de développement communautaire et de maintien logiciel (Github, Intégration Continue), et des librairies standards de deep learning (Pytorch/Tensorflow).

Formation et compétences requises :
Expérience en traitement d’images 3D, et/ou modélisation géométrique appréciée. Intérêt pour le développement d’outils open-source et la collaboration interdisciplinaire. Capacité à travailler en équipe dans un environnement mêlant informatique, biologie et agroécologie.

Adresse d’emploi :
La rémunération selon barème légal des stages sera de 600€ mensuel, avec accès à la restauration collective le midi. Le stage aura lieu au Cirad de Montpellier, 389 Av. Agropolis, 34980 Montferrier-sur-Lez.

Document attaché : 202411271216_Offre stage M2 – 2025 – Deep aerenchimas.pdf

Jan
26
Sun
2025
Classification et comparaison d’images 3D multimodales à l’aide d’architectures GNN et/ou VGAE : application à la détection précoce de la maladie d’Azheimer
Jan 26 – Jan 27 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire LISTIC – Université Savoie-Mont-Blanc
Durée : 4 à 6 mois
Contact : jean-yves.ramel@univ-smb.fr
Date limite de publication : 2025-01-26

Contexte :
Machine Learning sur Graphes (GNN et VGAE) pour des applications en neurosciences et imagerie multimodales.

L’objectif de ce travail n’est pas seulement de produire un système de classification obtenant de bonnes performances mais aussi de mettre en place des modèles permettant d’expliquer les décisions produites.

Sujet :
Missions :
1. Étude de l’état de l’art sur les représentations graphes adaptées à la représentation d’images 3D multimodales et sur les modèles GNN et VGAE permettant le traitement de telles données.
2. Sélection du mode de construction des graphes en utilisant des techniques de segmentation d’images déjà implémentées appliquées à des IRM cérébrales T1 et TEP. Il s’agira de définir les meilleurs paramètres à utiliser pour intégrer les informations multimodales de manière pertinentes au sein des graphes (mode de segmentation, mode de création des nœuds et arêtes, attributs des nœuds et arêtes du graphes).
3. Mise en place de modèles GNN et/ou VGAE et des procédures d’explicabilité associées. Application à l’analyse de graphes représentant des cerveaux humains sein ou ayant un niveau de pathologie plus ou moins important. L’objectif n’est pas uniquement de classifier mais aussi
d’identifier les bio-marqueurs associés à la tâche étudiée.
4. Les modèles proposés pourront être évalués sur un dataset d’images IRM 3D T1 et TEP de cerveaux humains (détection précoce de la maladie d’Azheimer).
5. Comparaison des performances avec d’autres modèles afin de déterminer la pertinence des solutions proposées dans ce contexte. Évaluation des performances des modèles pour la détection de patterns ou d’anomalies liés à la progression des maladies d’Alzheimer.

Plus d’infos : http://jyramel.free.fr/DATA/stage202425jyr.pdf

Profil du candidat :
• Étudiant(e) en Master 2 ou école d’ingénieurs en Informatique, Machine Learning, Data Science.
• Compétences en Machine Learning (notamment variational autoencoders, GNN, VGAE)
• Maîtrise de Python et des bibliothèques associées (PyTorch, TensorFlow, scikit-learn).
• Esprit analytique, capacité à travailler en équipe

Formation et compétences requises :
Tuteurs / Contacts
jean-yves.ramel@univ-smb.fr – Antoine.bourlier@univ-tours.fr
Merci d’envoyer votre CV et lettre de motivation

Adresse d’emploi :
Laboratoire LISTIC – Bureau 204
Bat 2D – Polytech-Annecy-Chambery
Université Savoie-Mont-Blanc
Campus Savoie-Technolac
73376 Le BOURGET du LAC cedex

Jan
30
Thu
2025
Stage M1/ M2 à l’IRIT- Toulouse: Développement d’Approches d’Apprentissage automatique pour l’Étude du Vieillissement à Travers le Comportement de Nage du Poisson ATK
Jan 30 – Jan 31 all-day

Offre en lien avec l’Action/le Réseau : HELP/– — –

Laboratoire/Entreprise : IRIT, Université Toulouse Capitole
Durée : 6 mois
Contact : moncef.garouani@irit.fr
Date limite de publication : 2025-01-30

Contexte :

Sujet :
I. Contexte général et projet de recherche

Le vieillissement d’une population d’individus est associé à une augmentation de nombreuses maladies chroniques. Trouver des moyens de prévenir et de traiter ces maladies est un enjeu majeur pour la santé publique et la vie socio-économique. Dans le cadre de la recherche sur le vieillissement, notre laboratoire utilise le poisson African Turquoise Killifish (ATK) comme un modèle d’étude très pertinent, puisque sa durée de vie est seulement de 6 à 8 mois et présente un vieillissement holistique multi-organes très rapide. Au laboratoire, nous étudions le vieillissement de l’ATK notamment par l’étude de son comportement de nage spontanée par analyse vidéo. Nos résultats préliminaires montrent, au cours d’un suivi cinétique, clairement que l’ATK a un comportement de nage qui se modifie avec l’âge. Cependant, les grandes quantités de données générées par l’analyse vidéo rendent l’intelligence artificielle (IA) indispensable pour l’extraction de variables pertinentes, l’analyse et l’interprétation des données. Nous proposons dans ce projet de développer des approches d’apprentissage multimodal
(« Multimodal Machine Learning », MML) permettant d’identifier, à partir des données déjà générées, des combinaisons de comportements de nage qui évoluent avec l’âge. Nous devons relever plusieurs défis pour le MML en raison du caractère hétérogène des données longitudinale à traiter. L’encodage unimodale des données est crucial pour le MML et influence fortement son efficacité prédictive. L’identification et le tuning des encodeurs pour extraire les caractéristiques abstraites se limitent actuellement à des tâches unimodales. Dans ce projet, nous développerons (i) des stratégies d’intégration de données originales (sans homogénéisation) pour améliorer l’efficacité de nos analyses, (ii) une méthode de « meta-learning » pour identifier les encodeurs optimaux adaptés à chaque modalité, et (iii) une méthode d’explicabilité multimodale pour identifier les biomarqueurs les plus pertinents et comprendre les relations causales dans les flux de données. L’utilisation du MML appliquée à l’étude du comportement de l’ATK, nous permettra d’atteindre nos objectifs qui sont de (i) réaliser une modélisation longitudinale du comportement de l’ATK, (ii) prédire, en fonction des patterns de nage, la durée de vie d’un individu donné et (iii) son score de fragilité, et enfin (iv) évaluer l’efficacité d’une intervention thérapeutique, qu’elle soit nutritionnelle, génétique ou médicamenteuse.

II. Objectifs du Stage :

L’objectif du stage Master est de contribuer au développement d’approches d’apprentissage multimodal pour l’étude du vieillissement à partir des données comportementales du poisson African Turquoise Killifish (ATK). Plus précisément, le stage se concentrera sur les objectifs suivants :
• Exploration des Architectures d’Apprentissage Multimodal : Réaliser une revue de la littérature sur les architectures et techniques de fusion adaptées à l’intégration de données hétérogènes déjà générés.
• Analyse des Comportements de Nage : Étudier les relations entre différents paramètres comportementaux (vitesse, trajectoire, fréquence de nage) pour identifier les caractéristiques qui évoluent avec l’âge.
• Expériences sur l’Explicabilité Multimodale : Mettre en œuvre des approches d’intelligence artificielle explicable (XAI) pour comprendre comment les comportements identifiés influencent la prédiction de la durée de vie et du score de fragilité.
Le stage impliquera une revue approfondie de la littérature, la conception d’expériences d’apprentissage multimodal, l’analyse des données existantes et l’interprétation des résultats. Le candidat sélectionné travaillera en étroite collaboration avec notre équipe de recherche, acquérant une expérience pratique en apprentissage machine, en intégration de données hétérogènes et en IA explicable appliquée à la biologie du vieillissement.

Profil du candidat :
• Le/la candidat(e) doit être en Master 1/2. Il/elle aura un profil informatique avec de profondes connaissances en apprentissage automatique, avec un intérêt pour le travail interdisciplinaire.
• Compétences techniques : Solide bagage en apprentissage automatique, apprentissage profond et analyse de données.
• Programmation : Maîtrise des langages de programmation tels que Python et expérience avec des bibliothèques pertinentes (e.g., TensorFlow, PyTorch).
• Compétences analytiques : Excellentes compétences en analyse et en résolution de problèmes, avec un intérêt marqué pour la recherche multidisciplinaire.

Formation et compétences requises :

Adresse d’emploi :
Institut de Recherche en Informatique de Toulouse

Document attaché : 202411211601_Stage ML_ATK.pdf

Jan
31
Fri
2025
Arbitrary-scale Flow Matching for super-resolution on satellite maritime images
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : IRISA, Université Bretagne Sud
Durée : 6 mois
Contact : minh-tan.pham@univ-ubs.fr
Date limite de publication : 2025-01-31

Contexte :

Sujet :
We propose an internship for Master 2 and Ecole d’Ingénieur students, with a funded opportunity to pursue a PhD within the team on the topic.

This internship is part of the European HORIZON AXOLOTLproject, for which exchanges with Cypriot researchers are planned.

For more information, please consult the offer on this link:
https://www-obelix.irisa.fr/files/2024/11/Master_internship_super_resolution.pdf

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
The expected intern will join the OBELIX research group (www.irisa.fr/obelix) from IRISA (UMR 6074) is located in the UBS (Universit´e Bretagne Sud) campus in Vannes 56000, France.

Document attaché : 202411210845_Master_topic_super_resolution.pdf

Classification semi-supervisée avec réseaux de graphes convolutionnels. Application à la prédiction du risque d’infarctus
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IBISC, LISSI
Durée : 6 mois
Contact : aurelien.hazan@u-pec.fr
Date limite de publication : 2025-01-31

Contexte :
Le scanner de perfusion myocardique (ou scintigraphie de perfusion myocardique) est un examen d’imagerie de médecine nucléaire non-invasif qui utilise une petite quantité d’un traceur radioactif

L’acquisition se fait typiquement sur une durée de 20 à 40 minutes, synchronisée au rythme cardiaque permettant ainsi de reconstituer un cycle cardiaque sur une séquence 3D animée
Cependant, ces images scintigraphiques souffrent d’une mauvaise résolution spatiale (environ 1 cm3), et d’un mauvais rapport signal sur bruit.

La méthode la plus efficace utilisée actuellement pour traiter ces deux problèmes est d’augmenter les images de scintigraphie par une image 3D anatomique obtenue par tomographie à rayon X (CT) pour corriger l’atténuation des rayons gamma.

Sujet :
Méthode: Les GNN, sont une classe de modèles de deep learning spécialement conçue pour traiter des données représentées sous forme de graphes. Contrairement aux images classiques, qui sont souvent traitées en utilisant des CNN sur des grilles de pixels, les GNN permettent de capturer des relations complexes entre des éléments non structurés de manière régulière, ce qui peut être particulièrement utile pour les images médicales, la segmentation d’objets ou l’analyse de structures 3D [muller_survey_2024,han_vision_2022]

Un réseau de graphes permettra de recréer un cycle cardiaque complet à partir d’une seule image tomodensitométrique et d’un ECG. La reconstitution permettra de générer sur l’ensemble du cycle cardiaque une représentation de haute qualité de l’atténuation des tissus afin de recaler la correction d’atténuation sur l’acquisition par scintigraphie. Ceci permettrait ainsi d’éviter les artefacts observés.

Dans le but de valider notre approche sur une large base de données représentative des pratiques du service de médecine nucléaire, cette étude s’appuiera sur la base de donnée du CHSF.

Profil du candidat :
La personne recrutée devra justifier d’un diplôme d’ingénieur ou d’un Master, de solides connaissances en intelligence artificielle, par exemple en deep learning (DL), en réseaux de neurones profonds et en codage (Python, Cuda, C++). Des expériences de développement sur processeurs graphiques (GPU) seront très appréciées. Son anglais sera courant. Le candidat sélectionné aura la chance de travailler dans une équipe interdiciplinaire et avec un consortium de data scientists et de cliniciens du centre hospitalier sud-francilien (CHSF)

Formation et compétences requises :

Adresse d’emploi :
Lieux:
IBISC, EVRY.
LISSI, IUT Sénart-Fontainebleau, Lieusaint.

Contact: hichem.maaref@ibisc.univ-evry.fr, aurelien.hazan@u-pec.fr

Déploiement et évaluation d’un annotateur immersif et embarqué, application à la reconnaissance d’entité
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : MaIAGE, INRAE, université Paris-Saclay
Durée : 6 mois
Contact : arnaud.ferre@inrae.fr
Date limite de publication : 2025-01-31

Contexte :
Les techniques d’extraction d’information (text-mining) récentes les plus performantes reposent sur de l’apprentissage automatique supervisé. Or, l’évaluation et l’entraînement de ces méthodes nécessitent une phase d’annotation humaine laborieuse. Cela est particulièrement vrai pour les domaines spécialisés, tels que la microbiologie, où la production et la validation des annotations nécessitent l’intervention d’experts, et où les données produites sont d’un grand intérêt [Deléger2016]. La Réalité Virtuelle (RV) et par extension la Réalité Étendue (XR) permettent d’améliorer les performances d’utilisateurs ainsi que leur engagement lors de la réalisation de tâches spécifiques comme de la rééducation ou de l’apprentissage humain [David2017, Mayer2023].

Sujet :
Projet :
Nous proposons dans ce stage de développer et d’évaluer un outil d’annotation textuelle immersif en Réalité Virtuelle (RV) similaire à VAnnotator [Spiekermann2018] pouvant tirer parti des possibilités d’annotation en Réalité Étendue (XR) [Borhani2023]. La tâche d’annotation spécifique visée sera la reconnaissance d’entités. Cette dernière consiste à identifier et classifier des entités nommées dans un texte (ex : identifier dans la phrase suivante que la mention “Escherichia coli” est une bactérie – “Escherichia coli est trouvée dans les intestins des animaux”). L’accent sera mis sur la mise en place de l’annotateur immersif ainsi que de son évaluation comparée avec les outils existants.

Objectifs du stage :
– Revue de la littérature des solutions d’annotation immersives.
– Transfert de données textuelles issues d’un corpus BB4 pour la reconnaissance d’entités et développé à MaIAGE dans un casque de RV.
– Installation et configuration d’un annotateur standard [Colucci2024] dans un environnement immersif, pour la visualisation des données, le développement de fonctionnalités et pour améliorer l’annotation en RV.
– Mise en place d’expérimentations utilisateurs pour comparer l’utilisation immersive et non-immersive de Doccano (cybersickness, utilisabilité, etc.).
– Rédaction du manuscrit pour diffusion et documentation.

Le stage pourra être l’occasion de préparer un poster pour une conférence des domaines concernés (ex : IHM, TALN).

Profil du candidat :
Étudiant en Master 2, élève-ingénieur des Grandes Écoles ou équivalent.

Formation et compétences requises :
Formations visées : informatique (IHM, IA, etc.) ou équivalent.

Compétences requises :
– Compétences en développement informatique (préférentiellement web, Python et Android)
– Compétences en IHM (évaluation de l’expérience utilisateur, analyse d’applications interactives)
– Une expérience en développement XR serait un plus
– Capacité de travail en autonomie
– Un attrait pour la recherche scientifique

Adresse d’emploi :
INRAE – Unité MaIAGE Bât 210 et 233 Domaine de Vilvert 78352 JOUY-EN-JOSAS

Document attaché : 202411201454_Offre de stage M2 IHM & Text-Mining.pdf

Estimation d’Incertitudes de Données Multimodales en Situations de Visibilité Dégradée
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LITIS Lab / INSA Rouen
Durée : 6 mois
Contact : hind.laghmara@insa-rouen.fr
Date limite de publication : 2025-01-31

Contexte :
Les systèmes de perception multimodale (caméras, radars, lidars, capteurs infrarouges) sont de plus en plus utilisés dans les applications de mobilité autonome (véhicules, drones) et de surveillance, en particulier pour surmonter les situations de visibilité dégradée (brouillard, pluie, faible luminosité). Dans ces conditions, les données provenant des différents capteurs peuvent être sujettes à des incertitudes importantes qui impactent la fiabilité des décisions prises par les systèmes automatisés. Pour cela, ce stage se tient dans le cadre du projet ANR AdaV (2025-2028) qui a pour but d’étudier les possibilités d’extraction de caractéristiques environnementales pour l’amélioration de la fusion adaptative des modalités pour la détection d’objets multiples.

Mots clés :
Capteurs non-conventionnels, fusion multi-capteurs, analyse de scènes routières, physical attention learning, incertitude, traitement de signal et des images, deep learning.

Sujet :
Ce stage vise à développer une méthode permettant d’estimer et de modéliser les incertitudes associées aux données multimodales collectées en conditions de visibilité dégradée. L’objectif est de quantifier ces incertitudes et d’améliorer la robustesse de la fusion de données en vue d’applications critiques (navigation autonome, détection d’obstacles, etc.).

Dans un second temps, l’objectif est d’appliquer une approche de perception basée sur une fusion adaptative d’information provenant d’une caméra polarimétrique et d’une caméra RGB ainsi que de données provenant d’un LiDAR . Une partie du stage portera également sur la réalisation d’expérimentations en collaboration avec Lucas Deregnaucourt, doctorant au LITIS, pour la détection d’objets dynamiques dans le cadre de conduite en situation de visibilité réduite [1]. Le LITIS dispose d’une plateforme robotique, PERMIS, qui comprend différents robots ainsi qu’un dispositif permettant de simuler une dégradation de visibilité par la génération d’un brouillard artificiel. L’objectif du stagiaire sera de mener à bien l’entraînement de réseaux de neurones évidentiel et d’appliquer un modèle à l’un des robots en utilisant l’environnement ROS.

[1] L. Deregnaucourt, A. Lerchervy, H. Laghmara, and S. Ainouz, “An evidential deep network based on Dempster-Shafer theory for large dataset,” Advances and Applications of DSmT for Information Fusion, 2023.

Profil du candidat :
Niveau Master 2 ou ingénieur (ou équivalent) en informatique ou mathématiques appliquées ou science des données (ou disciplines similaires)

Le stage est susceptible d’être poursuivi par une thèse de doctorat dans le cadre du projet ANR AdaV (financement acquis).

Merci d’envoyer votre CV et relevés de notes aux encadrants :
— Hind Laghmara, LITIS – EA 4108, hind.laghmara@insa-rouen.fr
— Alexis Lechervy, GREYC – UMR CNRS 6072 alexis.lechervy@unicaen.fr
— Paul Honeine, LITIS – EA 4108 paul.honeine@univ-rouen.fr

Formation et compétences requises :
— Bonnes compétences en Machine Learning et vision par ordinateur
— Bonnes compétences en programmation par Python
— Un intérêt pour la robotique et la mobilité intelligente, ainsi que l’utilisation de l’environnement ROS.

Adresse d’emploi :
LITIS Lab, INSA Rouen Normandie

Document attaché : 202411220859_Offre_de_stage_Printemps_2025.pdf

Étude de controverses dans le domaine de l’agriculture à partir de commentaires en français issus de Youtube
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : UMR TETIS / UMR STL
Durée : 6 mois
Contact : mathieu.roche@cirad.fr
Date limite de publication : 2025-01-31

Contexte :
Avec la liberté d’expression et la pluralité d’opinions, la société moderne voit apparaître de nombreuses controverses, comme par exemple les questions liées à la vaccination, au végétarianisme ou au réchauffement climatique. De manière générale, on considère qu’une controverse apparaît lorsqu’il existe des points de vue, des croyances ou des avis différents, ce qui peut se transformer en désaccord plus ou moins manifeste entre les acteurs. Une situation de controverse se manifeste typiquement par l’emploi de l’argumentation et une charge émotive des énoncés. Leur étude permet de comprendre les enjeux et les positions qui peuvent exister autour d’une question donnée.

Dans le cadre du projet CNRS MITI STAY (Savoirs Techniques pour l’Auto-suffisance, sur Youtube), nous nous intéressons aux controverses en lien avec l’agriculture alternative. Les données de travail proviennent essentiellement des vidéos Youtube transcrites et les commentaires correspondants. Il est rare que les vidéos comportent des controverses. En revanche, les commentaires, qui se construisent en interaction entre les intervenants, peuvent contenir des opinions ou réactions controversées. Pour s’attaquer à un tel problème, nous pouvons nous intéresser aux structures des discussions et/ou au contenu des commentaires.

Sujet :
Ce stage s’intéressera plus spécifiquement à analyser les contenus textuels source de controverse. Pour mener de telles études, les données à exploiter sont souvent rares et leur collecte et annotation sont longues et complexes. Pour aider la constitution d’un corpus conséquent contenant des commentaires controversés en volume nécessaire pour être ensuite traité par des modèles de langue, il est souvent proposé d’augmenter ces données avec des méthodes spécifiques. Cette tâche constitue le coeur de ce stage. Plus particulièrement, il s’agit de travailler avec un premier ensemble de commentaires déjà annotés et d’augmenter de manière automatique ces données.

De manière concrète, le travail de stage se déroulera en trois phases successives :
– Dans un premier temps, le ou la stagiaire réalisera un état de l’art sur les approches à mobiliser en lien avec le travail de stage, à savoir l’identification automatique des controverses sur la base du contenu textuel et l’augmentation de données textuelles.
– Dans un deuxième temps, le travail proposé consistera à identifier les controverses en lien avec les thématiques sur lesquelles elles portent. Pour cela, le ou la stagiaire utilisera (1) les données en français annotées du projet STAY, (2) un lexique thématique produit par les chercheuses et chercheurs du projet.
– Enfin, des méthodes d’augmentation de données seront proposées, mises en place et évaluées sur la base des analyses réalisées précédemment.

Profil du candidat :
Profil des candidat.e.s : TAL, science des données avec une sensibilité au travail avec des données textuelles dans un cadre pluridisciplinaire

Candidature :
Envoyer un CV + relevés de notes des deux dernières années aux encadrant.e.s

Date limite : 04 décembre 2024

Formation et compétences requises :

Adresse d’emploi :
Encadrant.e.s :
– Mathieu Roche (mathieu.roche@cirad.fr) UMR TETIS, CIRAD, Montpellier
– Natalia Grabar (natalia.grabar@univ-lille.fr) UMR STL, CNRS, Lille

Lieu du stage : Montpellier ou Lille

Génération et validation de connaissances depuis des documents textuels
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : EDF R&D
Durée : 6 mois
Contact : victor.charpenay@emse.fr
Date limite de publication : 2025-01-31

Contexte :
La R&D d’EDF (2000 chercheurs) a pour missions principales de contribuer à l’amélioration de la performance des unités opérationnelles du groupe EDF, d’identifier et de préparer les relais de croissance à moyen et long terme. Dans ce cadre, le département Services, Economie, Outils Innovants et IA (SEQUOIA) est un département pluridisciplinaire (sciences de l’ingénieur, sciences humaines et sociales) qui fournit un appui à l’élaboration et au portage des offres, des services et des outils de relation client aux directions opérationnelles du groupe EDF.

Au sein de ce département, ce stage sera rattaché au groupe « Statistiques et Outils d’Aide à la Décision » (SOAD) : cette équipe compte une vingtaine d’ingénieurs chercheurs spécialisés en IA et data science avec des compétences fortes autour du machine learning et du deep learning, du web sémantique, de l’IA symbolique et de l’IA générative (texte, voix, image, multimodalité…), en particulier du NLP (LLM, RAG, data mining,). Le stage portera sur l’interaction entre grands modèles de langage (LLM) et IA symbolique.

Sujet :
Les LLM sont multi-tâches. Ils peuvent aussi bien traduire un texte d’une langue à une autre que répondre à des questions de culture générale. Cependant, il est difficile de contraindre un LLM à n’effectuer qu’une seule tâche, comme répondre seulement par un nombre ou générer des données structurées selon un schéma prédéfini. Il est possible de valider a posteriori la réponse d’un LLM mais si elle s’avère syntaxiquement fausse, il n’existe pas d’approche standard pour corriger cette première réponse sans avoir à en générer une deuxième. L’objectif du stage sera d’explorer une approche neuro-symbolique pour guider la génération de LLM selon un langage contrôlé (comme un langage de requête ou un modèle de données), afin de garantir la conformité syntaxique et sémantique de chaque réponse.

Cette approche sera appliquée à la génération de graphes de connaissances à partir de documents textuels. Au sein du groupe SOAD, nous travaillons sur les possibilités d’intégration des graphes de connaissances pour améliorer la fiabilité et l’explicabilité des systèmes IA, un enjeu clé pour les applications critiques. Cependant la construction des graphes de connaissances reste une tâche coûteuse en termes de temps et de ressources, en particulier lorsqu’il s’agit d’extraire et de structurer ces connaissances à partir de documents textuels. Dans le groupe EDF, de nombreuses connaissances métiers proviennent de documents complexes, comme les descriptions d’infrastructures de production et leurs contraintes d’exploitation. Exploiter ces connaissances permettrait d’accélérer l’adoption de solutions de rupture tout en les fiabilisant et en valorisant l’expertise métier.

Profil du candidat :
• Excellent niveau français oral et écrit
• Curiosité scientifique et forte motivation pour l’innovation

Formation et compétences requises :
• Etudiant(e) en Master 2 ou équivalent école d’ingénieur, spécialité data science, IA ou équivalent
• Compétences solides en programmation, en particulier en Python.
• Connaissance des techniques de traitement du langage naturel (NLP) et des modèles d’IA générative (par exemple, GPT-4).
• Compétences en construction et manipulation de graphes de connaissances (RDF, Neo4j, graphDB, ontologie…) fortement souhaitées.

Adresse d’emploi :
EDF R&D Lab
Saclay (91120)

Document attaché : 202412041504_Offre_Stage_Knowledge_generation_2025.pdf

IA Explicable et qualité des données/modèles
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : GREYC CNRS UMR 6072 – Université de Caen Normandie
Durée : 5 à 6 mois
Contact : bruno.cremilleux@unicaen.fr
Date limite de publication : 2025-01-31

Contexte :
Contexte scientifique

Ce stage de master s’inscrit dans le cadre du projet Pandora financé par l’ANR (Agence Nationale de la Recherche), projet qui démarrera en février 2025. Pandora se situe dans le contexte de l’intelligence artificielle explicable (XAI), en particulier dans le domaine des réseaux de neurones sur graphes (GNN). En se focalisant sur le fonctionnement interne des GNNs, les objectifs du projet sont les suivants :
— caractériser, comprendre et expliquer de manière claire le fonctionnement interne des GNN en utilisant des techniques d’extraction de motifs ;
— découvrir des motifs d’activation neuronale statistiquement significatifs, appelés « règles d’activation », pour déterminer comment les réseaux encodent les concepts [7, 8] ;
— traduire ces règles d’activation en motifs de graphes interprétables par un utilisateur ;
— utiliser ces connaissances pour améliorer les GNN en identifiant les biais d’apprentissage, en générant des données supplémentaires et en construisant des systèmes d’explication.

Ce stage de recherche porte sur le dernier point. Plus précisément, nous souhaitons développer de nouvelles méthodes permettant d’améliorer l’apprentissage des modèles sur graphes en s’appuyant sur l’analyse du fonctionnement interne de ces modèles via, par exemple, des règles d’activation exprimées dans l’espace latent. Il s’agira ainsi d’analyser
les frontières de décisions, de caractériser les erreurs du modèle étudié dans l’espace des données ou dans leurs représentations latentes afin de proposer des solutions correctives.

Sujet :
Cf. la description détaillée (document pdf).

Profil du candidat :
Cf. la description détaillée (document pdf).

Formation et compétences requises :
Cf. la description détaillée (document pdf).

Adresse d’emploi :
Laboratoire GREYC, CNRS UMR 6072, Université de Caen Normandie, 14000, Caen, France

Document attaché : 202411050931_StageIAexplicable_Pandora_FR.pdf

Optimizing Pulsar Search with NenuFAR
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : BigData4Astro/– — –

Laboratoire/Entreprise : LPC2E Orléans
Durée : 5 mois
Contact : cherry.ng-guiheneuf@cnrs-orleans.fr
Date limite de publication : 2025-01-31

Contexte :
Pulsars are highly magnetized, rapidly rotating neutron stars. Thanks to the extreme stability of pulsar rotation, pulsars are considered “cosmic clocks” with a wide range of astrophysical applications. Pulsar discoveries have directly resulted in two Nobel prizes (1974 and 1993). Collectively, pulsar-related referred articles have led to over 500,000 citations; the discovery of pulsars is therefore a gateway to new science. Although it has been over 50 years since the first pulsar was discovered in 1967, pulsar searching is still in its early stage and the discovery space remains largely unexplored. Neutron star population synthesis studies suggest that there are ~120,000 potentially observable pulsars in our Galaxy, although currently just over 3000 pulsars are known. Traditionally, single-dish radio telescopes can only focus on a single point in the sky, limiting the sky mapping speed and hence the number of pulsar discoveries. In addition, the very-low frequency range remains relatively unexplored.

Sujet :
The newly commissioned NenuFAR telescope in France opens a new window in the very-low frequency range between 10 and 85 MHz. This unique frequency range and the large field-of-view of NenuFAR thus make it a promising instrument to undertake an exhaustive pulsar survey in the low frequency regime. Since 2020, NenuFAR has been conducting a blind (untargeted) pulsar search above declination 39°. Over 4000 hours of data have been collected to date of which only ⅓ processed. During this internship, the trainee will help optimize the data processing pipeline (in python) with the goal of improving the throughput of the search. There is also the possibility of deploying the pipeline on the 28-petaflop Jean Zay High Performance Computing (HPC) cluster operated by IDRIS/CNRS. We will work on aspects of parallelization, portability and modularization of the code. The trainees will also have the opportunity to gain insight into radio astronomy as well as to make first-hand pulsar discoveries.

Profil du candidat :
We are looking for candidates with prior python programming experience and who want to further strengthen their computing profiles. Knowledge in astronomy is preferred but not obligated.

We are only able to employ students with permits to work in France. This includes European citizens as well as students (from any nationalities) who are currently enrolled in a French university.

Formation et compétences requises :
– python programming

– at least B1 level in English (the internship will be conducted primarily in English)

Adresse d’emploi :
This internship will be hosted by the ASTRO team at the LPC2E/CNRS in Orléans (3E AVENUE DE LA RECHERCHE SCIENTIFIQUE, CS 10065, 45071 ORLEANS CEDEX 2, FRANCE).

The main research interests of the group is on radio transients including pulsars, fast radio bursts as well as SETI. The ASTRO team boasts the largest pulsar research group in France and is closely connected to the Nançay Radio Astronomical Observatory in the forest of Sologne. The ASTRO team currently has 6 permanent staff, 1 postdoctoral researcher and 3 PhD students. We typically welcome 1 to 2 M2 interns in the summer. Accommodation can be arranged on the CNRS campus at roughly €400/month. Lunch at the CNRS cantine is subsidized.

Document attaché : 202412091422_M2-2025_Cherry.pdf

Representation of physical quantities on the Semantic Web
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Mines Saint-Étienne/LIMOS
Durée : 5-6 mois
Contact : antoine.zimmermann@emse.fr
Date limite de publication : 2025-01-31

Contexte :

Sujet :
Physical quantities form an important part of what is represented in scientific data, medical data, industry data, open data, and to some extent, various private data.

Whether it is distances, speeds, payloads in transportation, concentrations, masses, moles in chemistry, powers, intensities, voltages in the energy sector, dimensions of furniture, weights, heights of people, durations, and many others in health, there is a need to represent physical quantities, to store them, to process them, and to exchange them between information systems, potentially on a global scale, often on the Internet and via the Web.

In this internship, we seek to precisely define a way to unambiguously represent physical quantities for the Web of Data. More precisely, we will study the proposals made to encode physical quantities in the standard data model of the Semantic Web, RDF. We will be particularly interested in the use of a data type dedicated to this encoding, probably adapted from the proposal of Lefrançois & Zimmermann (2018) based on the UCUM standard.

Having established a rigorous definition of the data type (possibly its variants, if relevant), we will focus on implementing a module that can read/write and process physical quantities and their operations within the RDF data manipulation APIs, for the management, querying and reasoning with knowledge graphs containing physical quantities.

The ambition is that, on the one hand, the specification will become in a few years a de facto standard, before perhaps becoming a de jure standard; and that, on the other hand, the implementation will be the reference allowing to compare the compliance levels of other future implementations.

This study should lead to the publication of a scientific paper in a high impact scientific journal.

References

– Maxime Lefrançois and Antoine Zimmermann (2018). The Unified Code for Units of Measure in RDF: cdt:ucum and other UCUM Datatypes. In The Semantic Web: ESWC 2018 Satellite Events – ESWC 2018 Satellite Events, Heraklion, Crete, Greece, June 3-7, 2018, Revised Selected Papers, volume 11155 of the Lecture Notes in Computer Science, pp196–201, Springer.
– Gunther Shadow and Clement J. McDonald. The Unified Code for Units of Measure. Technical report, Regenstrief Institute, Inc, November 21 2017.

Profil du candidat :
Equivalent of a M2 level in CS, with knowledge of Semantic Web technologies. Also, the candidate must have either very good programming skills in Java, or very good aptitude in formal and abstract thinking.

Formation et compétences requises :

Adresse d’emploi :
Mines Saint-Étienne
158 cours Fauriel
42023 Saint-Étienne Cedex 2

Stage M2 (poursuite en thèse possible) – Machine Learning / Optimisation / Paléoprotéomique / Equipes ORKAD et BONSAI – Lille
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : équipes ORKAD et BONSAI (laboratoire CRIStAL, Lill
Durée : 6 mois
Contact : julie.jacques@univ-lille.fr
Date limite de publication : 2025-01-31

Contexte :
ORKAD et BONSAI sont deux équipes de recherche du laboratoire CRIStAL (Centre de Recherche en Informatique, Signal et Automatique de Lille, UMR CNRS 9189) de l’Université de Lille. L’équipe ORKAD (https://orkad.univ-lille.fr/) développe des méthodes pour l’optimisation combinatoire et l’extraction de connaissances avec des approches à base de méta-heurisitique. L’équipe BONSAI (https://www.cristal.univ-lille.fr/bonsai/) travaille en bioinformatique, avec le développement d’algorithmes et de logiciels pour l’analyse de données biologiques (génomes, gènes, protéines). Le sujet de ce stage s’inscrit également dans le cadre d’une collaboration pluridisciplinaire avec la plateforme de protéomique de l’Université de Lille.
La paléoprotéomique est l’étude des échantillons archéologiques ou paléontologiques, tels que des ossements, par des approches expérimentales de spectrométrie de masse. Les spectres de masses permettent ensuite l’identification des espèces d’origine des échantillons grâce à des peptides marqueurs [Warinner2022]. Ces peptides sont des courtes séquences protéiques susceptibles d’être obtenues par digestion et ionisées, et représentatives d’une espèce donnée. On peut donc les voir comme des peptides diagnostics ou des code-barres [Buckley2009]. Dans ce stage, nous souhaitons étudier le caractère explicatif des peptides marqueurs, en lien avec la taxonomie des espèces. Le stage mêlera les expertises de l’équipe Bonsai en algorithmique des séquences et bioinformatique et celles de l’équipe Orkad en optimisation combinatoire pour le machine learning.

Sujet :
Les peptides marqueurs permettent collectivement de caractériser une espèce ou un groupe d’espèces proches. Pour un clade donné, l’ensemble des peptides est souvent utilisé comme une boîte noire, sans prise en compte de la conservation de certains marqueurs entre espèces ou au contraire de leur caractère discriminant. Nous voulons regarder les questions suivantes: peut-on inférer un arbre de décision “simple” sur les peptides marqueurs expliquant l’assignation taxonomique ? Cet arbre de décision est-il consistant avec une taxonomie admise ? Peut-on inférer d’autres types de règles: modalités fréquentes ou corrélées avec un clade, par exemple ? Quelles sont les espèces pour lesquelles la prédiction est robuste, et a contrario, les espèces pour lesquelles la prédiction est sensible au bruit expérimental ? Cette analyse se fera à deux niveaux d’information: celui des séquences peptidiques, et celui des masses des peptides. La connaissance du premier niveau entraîne la connaissance du second niveau, mais la réciproque n’est pas vraie.
De nombreuses approches à base de métaheuristiques pour générer des arbres de décision ont été proposées [RiveraLopez2021,DhaenensJourdan2022]. Des approches prenant en compte les hiérarchies dans les données ont également été suggérées [Otero2010]. Dans ce stage, il s’agira de déterminer l’approche la plus appropriée aux données et d’adapter la modélisation (représentation d’une solution, voisinage, évaluation) pour trouver la plus appropriée aux particularités des données. Nous privilégierons une modélisation de type boîte blanche afin d’avoir une bonne exploitation des modèles générés. En particulier une réflexion sera menée sur le critère d’évaluation à utiliser pour l’optimisation: Qu’est-ce qui détermine qu’un arbre de décision répond au problème ? Cela demandera d’adapter aux données la notion d’accuracy utilisée habituellement pour les arbres de décision. Il faudra également intégrer la notion de robustesse au bruit pour permettre la prise en compte de peptides marqueurs manquants ou artéfactuels.
Ce travail mènera au développement d’un logiciel qui sera intégré à la suite PAMPA (Protein Analysis by Mass Spectrometry for Ancient Species) développée par l’équipe BONSAI : https://github.com/touzet/pampa/. En termes de données, l’équipe BONSAI a rassemblé une compilation d’environ 200 espèces mammifères, pour lesquelles un ensemble de 14 peptides marqueurs est annoté. Cela comprend des peptides consensuels au niveau de la communauté des paléoprotéomiciens, déterminés de manière expérimentale par spectrométrie de masse (https://docs.google.com/spreadsheets/d/1ipm9fFFyha8IEzRO2F5zVXIk0ldwYiWgX5pGqETzBco) ou générés par homologie.
Ce stage pourra donner lieu à une poursuite en thèse.

Profil du candidat :
Etudiant en stage de M2 informatique
Ce stage pourra donner lieu à une poursuite en thèse.

Formation et compétences requises :
Programmation Python et connaissances en machine learning (classification supervisée).
Des connaissances en recherche opérationnelle, optimisation combinatoire, technologies web ou bioinformatique seraient un plus.

Adresse d’emploi :
Laboratoire CRISTAL, Campus Scientfique, Villeneuve d’Ascq (https://www.cristal.univ-lille.fr/)

Document attaché : 202411201012_Sujet_stage_M2_ORKAD_BONSAI.pdf

Feb
1
Sat
2025
Aide à la correction d’anomalies dans des données multidimensionnelles et multirelationnelles sur l’agroécologie en santé animale et végétale
Feb 1 – Feb 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire d’Informatique, Robotique et Microélec
Durée : 6 mois
Contact : alexandre.bazin@lirmm.fr
Date limite de publication : 2025-02-01

Contexte :

Sujet :
Pour réussir la transition agroécologique, les producteurs ont besoin de disposer de connaissances sur des alternatives aux techniques agricoles classiques. Cependant, en préalable à l’utilisation d’une base de connaissances (BC) par des producteurs et des experts scientifiques, celle-ci doit être corrigée de ses anomalies. Le contexte de ce stage est la BC Knomana [Silvie et al., 2021], qui rassemble 48000 descriptions d’utilisation de plantes à effet pesticide et antibiotique, et vise à proposer des préparations à base de plantes en remplacement des produits chimiques de synthèse. Des dictionnaires permettent déjà de corriger les valeurs pour ses 31 types de données. Par contre, la vérification de la correction et de la cohérence des données est trop complexe pour être réalisée manuellement. Par exemple, une incohérence entre la plante pesticide, le système protégé (e.g. culture de maïs), le bioagresseur (e.g. insecte) et la localisation géographique suffit pour induire en erreur un producteur. La technique appelée Exploration d’Attributs (EA), développée par l’Analyse de Concepts Formels, permet de détecter et de corriger ces anomalies [Saab et al., 2022] en exprimant chaque connaissance sous forme d’une règle d’implication. Les règles sont présentées aux experts qui les valident ou les invalident afin de mettre la BC dans un état cohérent.
L’objectif du stage est de développer un prototype logiciel de détection et de correction des anomalies pour des données multidimensionnelles et multirelationnelles. Ce prototype permettra de manipuler les données et les types de données, puis d’interagir avec
la libraire FCA4J, pour le calcul des règles, et le logiciel RCAvizIR, développé avec le soutien de #Digitag (stages de Master en 2022 et 2023) pour les présenter dans un ordre facilitant le travail de correction par les experts.

* Pierre Accorsi, Mickaël Fabrègue, Arnaud Sallaberry, Flavie Cernesson, Nathalie Lalande, Agnès Braud, Sandra Bringay, Florence Le Ber, Pascal Poncelet, Maguelonne Teisseire. HydroQual: Visual Analysis of River Water Quality. Proceedings of the IEEE Symposium on Visual Analytics Science and Technology (VAST), pp. 123-132, 2014.
* Daniel A. Keim, Gennady L. Andrienko, Jean-Daniel Fekete, Carsten Görg, Jörn Kohlhammer, Guy Melançon. Visual Analytics : Definition, Process, and Challenges. Information Visualization – Human-Centered Issues and Perspectives. LNCS 4950, Springer 2008, p. 154-175. * Tamara Munzner. Visualization Analysis & Design. CRC Press, A K Perters Books, 2014. * Roberto Tamassia, Handbook on Graph Drawing and Visualization. Chapman et Hall / CRC, 2013.
* Michael Sedlmair, Miriah D. Meyer et Tamara Munzner. Design Study Methodology: Reflections from the Trenches and the Stacks. IEEE TVCG 18(12): 2431-2440, 2012.

Profil du candidat :
Compétences recherchées :
Intelligence artificielle, Fouille de données, Javascript

Formation et compétences requises :
Discipline principale du projet :
Informatique, Extraction de connaissances, Visualisation

Discipline secondaire du projet :
Sciences de la Vie et de l’Environnement

Adresse d’emploi :
Université de Montpellier

Document attaché : 202411011120_Sujet de stage Digitag 2024-1.pdf

Offre de stage M2 – Projet STAY (LISIS- TETIS ) à Montpellier
Feb 1 – Feb 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : TETIS
Durée : 5 mois
Contact : maguelonne.teisseire@inrae.fr
Date limite de publication : 2025-02-01

Contexte :
Ce stage s’inscrit dans les activités interdisciplinaires de l’UMR TETIS du projet STAY – Savoirs Techniques pour l’Autosuffisance, sur YouTube (financement CNRS) – en partenariat avec le LISIS (Laboratoire Interdisciplinaire Sciences Innovations Sociétés). Des pratiques agricoles sont aujourd’hui partagées et commentées sur YouTube, plateforme d’hébergement de vidéos dont la popularité n’est
plus à démontrer.En effet, en février 2023, les données Médiamétrie indiquaient 48 millions d’utilisateurs uniques en France. Disponible à tout le monde, la plateforme permet à quiconque – professionnels de l’agriculture ou pas – de devenir créateur de contenu, les caractéristiques et la qualité des informations ainsi partagées faisant l’objet d’une littérature déjà abondante. Cette littérature montre entre autres que YouTube constitue pour ses utilisateurs une source d’informations qui contribue aux appréciations qu’ils se font d’une situation, et qui peut influencer leur jugement et leur action parfois de manière significative.
Qu’il s’agisse d’utilisateurs ou de producteurs de contenu, ils peuvent être à la fois des professionnels (exploitants agricoles, Chambres d’Agriculture…) et des amateurs (des jardiniers engagés dans l’autoproduction alimentaire à l’échelle d’un potager ou petit verger, militants…). Nous nous intéressons tout particulièrement au sujet des ravageurs en production légumière et arboricole.

Sujet :
L’objectif du stage est double :
(1) dresser un inventaire le plus exhaustif possible des chaînes YouTube pouvant être consultées afin d’obtenir des informations concernant les techniques de production légumière et arboricole – avec une attention particulière aux chaînes faisant référence aux techniques de lutte contre les ravageurs – en distinguant les chaînes produites par des professionnels de l’agriculture et les chaînes alimentés par des amateurs. Il s’agira dans un premier temps d’identifier les mots-clés pertinents et d’une liste de thèmes susceptibles de faire l’objet de recherches sur YouTube
(2) réaliser de façon automatique une catégorisation des contenus, en s’appuyant sur les statistiques et métadonnées, en termes:
– d’année d’apparition
– de nombre d’abonnés, de nombre de commentaires, de nombre de vues et de nombre de likes, avec une analyse de l’évolution temporelle de ces indicateurs d’identification des repères temporels marquants pour l’apparition et l’évolution en termes de succès de ces chaînes (épidémie de Covid, des évènements climatiques significatifs, etc.)
– de production de contenu, en termes quantitatifs
– de catégories des producteurs de contenu (classification à construire) de types de contenu proposés et de thèmes abordées – relatifs aux techniques agricoles et plus particulièrement aux techniques de lutte contre les ravageurs
– de type de stratégie économique employée par les créateurs de contenu – en termes de nombre de publicités et d’autres sources de revenu (contrats, cagnotte Tipeee..).

Le/la stagiaire pourra s’appuyer sur une production académique récente (Bruhl 2023) concernant un sujet similaire, à savoir la thèse de Guillaume Bruhl intitulée « État des lieux de la vulgarisation scientifique vétérinaire francophone sur Youtube ». Les implémentations s’intégreront dans la plateforme en cours de développement du projet.

Profil du candidat :
Le/la stagiaire aura un profil en informatique avec des connaissances en traitement automatique de la langue et/ou apprentissage automatique, avec un intérêt pour le travail interdisciplinaire. Une expérience dans le langage de programmation Python est un plus.

Formation et compétences requises :

Adresse d’emploi :
500 rue JF Breton 34090 Montpellier

Document attaché : 202410290856_Distribution_Stage1_Stay2024.pdf

Feb
14
Fri
2025
Classification de lésions intrahépatiques en histopathologie par apprentissage profond
Feb 14 – Feb 15 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CReSTIC
Durée : 4 à 6 mois
Contact : eric.desjardin@univ-reims.fr
Date limite de publication : 2025-02-14

Contexte :
Le cholangiocarcinome intra-hépatique (iCCA) est une tumeur maligne primitive hépatique dont le diagnostic anatomopathologique peut être difficile. L’objectif du projet CholangIA est d’améliorer le diagnostic des lésions ductulaires intra-hépatiques réalisé à partir d’images histopathologiques par les approches de l’Intelligence Artificielle. Une étude bi-centrique a permis de tester les performances de classification binaire et multi-classe des modèles VGG16, MobileNetV2 et ResNet50 [1]. Un premier pipeline de détection a été développé [Figure 1]. Nous souhaitons explorer les mécanismes d’attention et Multiple instance learning [2] afin de pouvoir rendre plus robuste les classifications obtenues.
Ce projet est mené dans le cadre d’une collaboration entre l’équipe AI4M (Artificial Intelligence for Medicine) du laboratoire CReSTIC, l’unité de recherche MEDyC et l’IIAS (Institut de l’IA en Santé) en partenariat avec l’Institut Mondor de Recherche Biomédicale.

Sujet :
Le candidat participera à l’enrichissement des travaux actuels en :
– développant des méthodes explicatives et d’attention de apprentissage profond
– implémentant une approche « Multiple instance learning »
– réalisant les Évaluations & Intégration dans le pipeline d’analyse

Profil du candidat :
Compétences impératives :
• Intelligence artificielle, machine learning, deep learning
• Programmation Python
• Librairies usuelles de deep learning (TensorFlow, Keras. . . )
• Analyse d’images

Compétences souhaitées mais non-indispensables :
• Imagerie histopathologique
• Compétences en calcul intensif

Formation et compétences requises :
Le(la) candidat(e) sera en Master 2 ou en 3e année d’école d’ingénieur.

Adresse d’emploi :
Université de Reims Champagne-Ardenne,
Laboratoire CReSTIC, Campus Moulin de la Housse, site de Reims

Document attaché : 202411221451_Stage CholangIA 2024.pdf