Offres d’emploi

Offres d’emploi

 Postes    Thèses    Stages 

Postes/PostDocs/CDD

Nov
16
Sun
2025
Ingénieure ou Ingénieur de recherche et développement en Imagerie Computationnelle et apprentissage profond
Nov 16 – Nov 17 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IMT Atlantique
Durée : 24 mois
Contact : francois.rousseau@imt-atlantique.fr
Date limite de publication : 2025-11-16

Contexte :
Grande école d’ingénieur généraliste de l’IMT-Institut Mines-Télécom, premier groupe d’écoles d’ingénieurs de France, IMT Atlantique a pour ambition d’accompagner les transitions, de former des ingénieurs responsables et mettre l’excellence scientifique et technique au service de l’enseignement, de la recherche et de l’innovation.

Dans le cadre du projet ICI (Imagerie Computationnelle pour l’IRM ultra-bas champ), qui vise à à développer un système d’imagerie IRM portable et accessible, fondé sur une approche computationnelle et sur l’intelligence artificielle, en collaboration avec le CHU de Brest et l’entreprise Multiwave (Marseille), nous recrutons Ingénieure ou un Ingénieur au sein de notre département Science des données (DSD).

Sujet :
En collaboration avec l’équipe du projet, vous développez et maintenez la chaine logicielle de reconstruction et d’analyse d’images IRM ultra-bas champ (Python, PyTorch). Vous assurez la gestion, le stockage et la diffusion des données IRM acquises sur la machine ultra-bas champ en lien avec les partenaires du projet. Vous accompagnez les chercheurs et ingénieurs dans l’utilisation des outils développés et la valorisation des résultats (documentation, packaging, diffusion open source). Vous contribuez à la coordination technique du projet avec les partenaires industriels (Mutiwave) et académiques (LaTIM, CHU de Brest).

Profil du candidat :
Diplôme Bac + 5 (ingénieur ou master) en informatique, traitement du signal, mathématiques appliquées ou équivalent.

Formation et compétences requises :
· Solide expérience en développement Python et PyTorch (ou frameworks équivalents).
· Bonnes connaissances en traitement et reconstruction d’images, idéalement en imagerie médicale.
· Pratique des outils de gestion de code (Git, GitLab, CI/CD).
· Connaissances des formats et bibliothèques liés à l’IRM (NumPy, NiBabel, TorchIO).
· Autonomie, rigueur et sens du travail collaboratif.

Adresse d’emploi :
IMT Atlantique, Campus de Brest

Informations & contacts :

Sur le contenu du poste : François ROUSSEAU – Enseignant Chercheur : francois.rousseau@imt-atlantique.fr

Sur les aspects administratifs/RH : Fanny BERNARD – Assistante recrutement – fanny.bernard@imt-atlantique.fr

Date limite de candidature : 16/11/2025
Début du contrat souhaité : Janvier 2026
Entretien : Au fil de l’eau

Lien : https://institutminestelecom.recruitee.com/o/ingenieure-ou-ingenieur-de-recherche-et-developpement-en-imagerie-computationnelle-et-apprentissage-profond-pour-lirm-ultra-bas-champ-cdd-24-mois

Post-doctorat en Imagerie Computationnelle pour l’IRM
Nov 16 – Nov 17 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IMT Atlantique
Durée : 24 mois
Contact : francois.rousseau@imt-atlantique.fr
Date limite de publication : 2025-11-16

Contexte :
Grande école d’ingénieur généraliste de l’IMT-Institut Mines-Télécom, premier groupe d’écoles d’ingénieurs de France, IMT Atlantique a pour ambition d’accompagner les transitions, de former des ingénieurs responsables et mettre l’excellence scientifique et technique au service de l’enseignement, de la recherche et de l’innovation.

Le département Science des données (DSD) développe des activités de recherche et d’enseignement dans le domaine interdisciplinaire des sciences des données (« Data Science »), en forte interaction avec des enjeux industriels et sociétaux (santé et environnement). Ses activités de recherche s’inscrivent dans le cadre des laboratoires Lab-STICC (UMR CNRS 6285) et LaTIM (UMR 1101 INSERM).

Le projet ICI (Imagerie Computationnelle pour l’IRM ultra-bas champ) financé par le programme Inria Quadrant, vise à développer un système d’imagerie IRM portable et accessible, fondé sur une approche computationnelle et sur l’intelligence artificielle, en collaboration avec le CHU de Brest et l’entreprise Multiwave (Marseille).

Sujet :
Le projet ICI ambitionne de concevoir une IRM ultra-bas champ portable, permettant de réaliser des examens d’imagerie cérébrale au chevet du patient, notamment pour le suivi du développement cérébral des nouveau-nés prématurés. La post-doctorante ou le post-doctorant participera au développement du logiciel de reconstruction d’images, à la gestion des données expérimentales, à l’exploitation des acquisitions IRM et à la mise en œuvre de pipelines de traitement intégrant des méthodes d’apprentissage profond.

Profil du candidat :
Doctorat en traitement du signal/image, informatique, mathématiques appliquées, ou domaine connexe, obtenu il y a moins de 3 ans.

Formation et compétences requises :
Excellente maîtrise de la programmation en Python et d’un framework d’apprentissage profond, PyTorch de préférence.
Solides connaissances en traitement d’images, en problèmes inverses et en apprentissage automatique (machine learning).
Expérience significative en recherche, démontrée par des publications scientifiques de qualité.

Adresse d’emploi :
IMT Atlantique, Campus de Brest

Informations & contacts :

Sur le contenu du poste : François ROUSSEAU – Enseignant Chercheur : francois.rousseau@imt-atlantique.fr

Sur les aspects administratifs/RH : Fanny BERNARD – Assistante recrutement : fanny.bernard@imt-atlantique.fr

Date limite de candidature : 16/11/2025

Début du contrat souhaité : Janvier 2026

Entretien : Au fil de l’eau

Lien : https://institutminestelecom.recruitee.com/o/post-doctorat-en-imagerie-computationnelle-pour-lirm-ici-imagerie-computationnelle-pour-lirm-ultra-bas-champ-cdd-24-mois

Dec
31
Wed
2025
2-Year Postdoc | AI for Air Quality and Toxicity Thresholds
Dec 31 2025 – Jan 1 2026 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : CRISTAL Lab – UMR CNRS 9189/University of Lille
Durée : 24 months – Ideally
Contact : hayfa.zgaya-biau@univ-lille.fr
Date limite de publication : 2025-12-31

Contexte :
The IARISQ project, funded by the French National Research Agency (ANR), aims to develop advanced artificial intelligence (AI) models to predict the toxicity thresholds of airborne particles, taking into account their physico-chemical properties and environmental dynamics. The project combines AI, probabilistic modeling, fuzzy logic, and explainable AI (XAI) to build a robust decision support system for public health and environmental risk assessment.

Sujet :
We are seeking a highly motivated postdoctoral researcher with strong expertise in machine learning and data science. The selected candidate will contribute to the design, implementation, and evaluation of predictive AI models for toxicity thresholds, with a focus on:
– Developing deep learning models (e.g., GANs, Transformers, TabNet)
– Managing uncertainty with probabilistic (e.g., GPR, Bayesian Neural Networks) and fuzzy logic approaches (e.g., Interval Type-2 Fuzzy Logic)
– Applying explainable AI techniques (e.g., SHAP, LIME, GrC) to identify influential variables
– Collaborating with environmental scientists and air quality experts
– Preparing scientific publications and sharing code (GitHub, open-source)

Related Publications
The candidate will contribute to a project with a strong publication record in top-tier journals and conferences. Recent related publications include:
1. Idriss Jairi, Sarah Ben-Othman, Ludivine Canivet, Hayfa Zgaya-Biau, Explainable-based approach for the air quality classification on the granular computing rule extraction technique, Engineering Applications of Artificial Intelligence, 2024. (Q1, IF: 7.5, AI/Software) https://doi.org/10.1016/j.engappai.2024.108096
2. Idriss Jairi, Sarah Ben-Othman, Ludivine Canivet, Hayfa Zgaya-Biau, Enhancing Air Pollution Prediction: A Neural Transfer Learning Approach across Different Air Pollutants, Environmental Technology & Innovation, 2024. (Q1, IF: 6.7, Environmental Engineering) https://doi.org/10.1016/j.eti.2024.103793
3. Idriss Jairi, Amelle Rekbi, Sarah Ben-Othman, Slim Hammadi, Ludivine Canivet, Hayfa Zgaya-Biau, Enhancing particulate matter risk assessment with novel machine learning-driven toxicity threshold prediction, Engineering Applications of Artificial Intelligence, 2025. (Q1, IF: 7.5, AI/Software) https://doi.org/10.1016/j.engappai.2024.109531

Conference
Doctoral Consortium Participant, ECAI 2024 – European Conference on Artificial Intelligence, Santiago de Compostela, Spain – October 2024. https://anaellewilczynski.pages.centralesupelec.fr/ecai-2024-dc/accepted.html

Profil du candidat :
PhD in Artificial Intelligence, Machine Learning, Data Science, or a closely related field.
– Strong experience in developing and evaluating deep learning models (e.g., GANs, Transformers, LSTM).
– Solid background in uncertainty modeling, explainable AI (XAI), or hybrid AI approaches is a plus.
– Excellent programming skills (Python, PyTorch or TensorFlow).
– Proven ability to conduct high-quality research, with publications in top-tier conferences or journals.
– Autonomy, creativity, and ability to work in a multidisciplinary environment (AI + environment + public health).
– Strong communication skills (oral and written) in English.

Formation et compétences requises :
PhD in computer Science – Artificial Intelligence

Adresse d’emploi :
https://www.cristal.univ-lille.fr

UMR CRIStAL
Université de Lille – Campus scientifique
Bâtiment ESPRIT
Avenue Henri Poincaré
59655 Villeneuve d’Ascq

Bayesian inference for cosmology: Inferring the initial fields of our cosmic neighborhood
Dec 31 2025 – Jan 1 2026 all-day

Offre en lien avec l’Action/le Réseau : DatAstro/– — –

Laboratoire/Entreprise : CRIStAL / Université de Lille / CNRS / Centrale Li
Durée : 18 mois
Contact : jenny.sorce@univ-lille.fr
Date limite de publication : 2025-12-31

Contexte :
The project is part of the Chaire WILL UNIVERSITWINS (UNIVERSe dIgital TWINS) led by Jenny Sorce (funded by the Université de Lille under the initiative of excellence). The successful candidate will be jointly supervised by Jenny Sorce (CNRS Researcher in cosmology) and Pierre Antoine Thouvenin (Assoc. Prof., Centrale Lille), and hosted in the CRIStAL lab (UMR 9189), Lille, France. The work will be conducted in collaboration with Jean Prost (Assoc. Prof., ENSEEIHT) in the IRIT lab. More than 2000 GPU.hours have already been secured for the project at TGCC on the Irene/Rome partition. They will be used to finetune, validate and deploy the surrogate model to perform Bayesian inference. Access to the medium scale computing center from the University of Lille is also ensured.

Lien vers le site du projet : https://sorcej.github.io/Jenny.G.Sorce/universitwins.html

Lien vers l’offre d’emploi : https://sorcej.github.io/Jenny.G.Sorce/jobads/postdocuniversitwins.pdf

Sujet :
According to the standard cosmological model, about 95% of the Universe is dark. Recent large survey analyses reveal tensions with this model. For instance, the local measurement of the expansion rate and the estimate of the Universe homogeneity differ by more than three standard deviations from those inferred with the first light of the Universe. These discrepancies are at the heart of a heated debate in cosmology to determine whether these tensions require new physical models to be acccounted for, or are mere consequences of systematic biases in the observation processing pipeline. Part of this pipeline relies on cosmological simulations to act as the missing ground truth. However, the simulations only reproduce the statistics of the local cosmic web. A new type of simulations, qualified as constrained, is emerging. Initial velocity and density fields of such simulations stem from observational constraints.

Profil du candidat :
PhD in signal/image processing, computer science or applied mathematics.

Formation et compétences requises :
The project requires a strong background in data science and/or machine learning (statistics, optimization), signal & image processing. Very good Python coding skills are expected. A B2 English level is mandatory. Knowledge in C++ programming, as well as experience or interest in parallel/distributed code development (MPI, OpenMP, CUDA, …) will be appreciated.

Adresse d’emploi :
UMR CRIStAL
Université de Lille – Campus scientifique
Bâtiment ESPRIT
Avenue Henri Poincaré
59655 Villeneuve d’Ascq

Ingénieur de formation orienté Intelligence Artificielle
Dec 31 2025 – Jan 1 2026 all-day

Offre en lien avec l’Action/le Réseau : – — –/Innovation

Laboratoire/Entreprise : Université de technologie de Troyes
Durée : 4 ans (2+2)
Contact : malika.kharouf@utt.fr
Date limite de publication : 2025-12-31

Contexte :
Présentation de l’établissement :
L’Université de technologie de Troyes créée en 1994, est aujourd’hui classée parmi les 10 écoles d’ingénieurs les plus
importantes en France et forme 3100 étudiants chaque année. Tournée vers l’excellence et en interaction permanente
avec le monde économique, l’UTT s’inscrit durablement avec une stratégie d’ouverture et de construction du futur pour
un avenir soutenable. En tant que leader du projet d’Université Européenne EUt+, au côté d’une alliance regroupant 9
partenaires, l’UTT est à la fois, à l’initiative, pilote et établissement expérimental pour le développement des nouvelles
méthodes et orientations de l’EUt+.
Acteur du développement économique et social de son territoire, Aube, Champagne et Grand Est, l’UTT est implantée
à Troyes, ville dynamique à taille humaine, riche d’histoire de patrimoine et de culture, ce qui permet à chacun de
s’épanouir dans un cadre privilégié à proximité de la nature.
Missions de l’agent :
Rattaché à la Direction de la formation et de la pédagogie, l’ingénieur de formation orienté IA fera partie d’une équipe
projet impliquant la formation initiale, la formation continue, la coopérative pédagogique (le centre d’innovation
pédagogique de l’UTT). Il/elle jouera un rôle clé dans la conception, la structuration et la mise en œuvre de ce nouveau
programme de formation, en collaboration avec des experts du domaine, des enseignants, des ingénieurs pédagogiques
et des partenaires académiques. Il/elle pourra être amené(e) à organiser et animer des sessions de formation (CM, TD,
TP, webinaire, …) en soutien au déploiement de nouveaux contenus. Enfin, il/elle pourra contribuer aux comptes
rendus, rapports d’activité et constitution de pièces justificatives éventuellement demandées par le financeur.

Sujet :
Missions de l’agent :
Rattaché à la Direction de la formation et de la pédagogie, l’ingénieur de formation orienté IA fera partie d’une équipe
projet impliquant la formation initiale, la formation continue, la coopérative pédagogique (le centre d’innovation
pédagogique de l’UTT). Il/elle jouera un rôle clé dans la conception, la structuration et la mise en œuvre de ce nouveau
programme de formation, en collaboration avec des experts du domaine, des enseignants, des ingénieurs pédagogiques
et des partenaires académiques. Il/elle pourra être amené(e) à organiser et animer des sessions de formation (CM, TD,
TP, webinaire, …) en soutien au déploiement de nouveaux contenus. Enfin, il/elle pourra contribuer aux comptes
rendus, rapports d’activité et constitution de pièces justificatives éventuellement demandées par le financeur.
Activités principales :
• Participer à la conception, au développement et au déploiement de la formation Bachelor IA, en collaboration
avec des experts du domaine, des enseignants, des ingénieurs pédagogiques, des partenaires académiques, …
• Elaborer des programmes de formation, des supports pédagogiques et des évaluations innovants en adoptant
une approche par compétences
• Proposer et expérimenter des formats pédagogiques innovants (blended learning, classes inversées, projets
tutorés, etc.)
• Collaborer avec des experts métiers, enseignants et ingénieurs pédagogiques pour coconstruire des contenus
pédagogiques innovants et de qualité
• Organiser et animer des sessions de formation (CM, TD, TP), des ateliers, des séminaires ou des webinaires
• Participer à l’évaluation des besoins en formation des apprenants et adapter les contenus en conséquence
• Contribuer à la mise en place et à l’animation des outils de suivi qualité de la formation et de dispositifs
d’amélioration continue
• Proposer des ajustements pédagogiques fondés sur les retours d’expérience, les évaluations…
• Valoriser les ressources pédagogiques produites (articles, webinaires, présentations)
• Participer à des événements académiques ou professionnels pour partager des retours d’expérience
• Contribuer à la diffusion et/ou la communication via des plateformes ouvertes ou des publications internes
• Contribuer aux comptes rendus, rapports d’activité et constitution de pièces justificatives éventuellement
demandées par le financeur
• Réaliser une veille pédagogique et technologique continue sur les sujets liés à l’intelligence artificielle, à
l’enseignement supérieur et aux méthodes d’apprentissage innovantes
• Garantir la pertinence et l’actualité des contenus de formation en tenant compte des évolutions du domaine
• Participer à des salons, forums ou événements autour de l’intelligence artificielle ou de l’orientation scolaire
• Soutenir, ponctuellement, les activités de la DFP

Profil du candidat :
Compétences essentielles du poste :
Savoirs généraux, théoriques ou disciplinaires
• Connaissances solides des concepts fondamentaux et avancés en intelligence artificielle
• Maîtrise des sciences de l’éducation, de la pédagogie et/ou de l’ingénierie de formation
• Maîtrise des approches pédagogiques innovantes
• Connaissances solides de l’approche par compétences
• Bonne connaissance du fonctionnement de l’enseignement supérieur (formation initiale / continue)
• Capacité à traduire des connaissances techniques complexes en contenus pédagogiques accessibles clairs,
engageants et accessibles
Savoir-faire opérationnels
• Concevoir et structurer une offre de formation en lien avec les besoins d’un secteur spécifique (IA)
• Élaborer des contenus pédagogiques adaptés à différents formats (présentiel, distanciel, hybride)
• Concevoir et animer des sessions de formation (CM, TD, TP, ateliers, séminaires, webinaires)
• Utiliser les outils numériques et technologiques pour la formation (LMS, outils auteur, outils collaboratifs,
plateformes d’apprentissage)
• Piloter des projets pédagogiques en mode collaboratif avec divers acteurs (enseignants, experts, partenaires)
• Réaliser une veille technologique et pédagogique et intégrer les innovations pertinentes
• Définir et mettre en œuvre des outils d’évaluation et de suivi qualité des dispositifs de formation
• Rédiger des comptes rendus, rapports d’activité et documents administratifs liés aux formations
Savoir-être
• Capacité à travailler en équipe et en mode projet avec des interlocuteurs variés
• Sens de l’organisation, réactivité, et rigueur dans le suivi des projets, la gestion des priorités
• Autonomie, esprit d’initiative et capacité à proposer des solutions innovantes
• Aisance à l’oral comme à l’écrit dans un contexte professionnel
• Esprit d’analyse et capacité à prendre du recul pour ajuster les pratiques pédagogiques
• Curiosité intellectuelle et goût pour l’apprentissage continu

Formation et compétences requises :

Adresse d’emploi :
Université de technologie de Troyes
12 rue Marie Curie,
10300 Troyes

Document attaché : 202509220941_F_H Ingénieur_Formation_IA-2.pdf

Postdoc on Anomaly Localization in Temporal Graphs
Dec 31 2025 – Jan 1 2026 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LISIC – Université du Littoral
Durée : 1 year
Contact : esteban.bautista@univ-littoral.fr
Date limite de publication : 2025-12-31

Contexte :
The Industrial Internet of Things (IIoT) is a rapidly evolving paradigm in which industrial sensors, machines, and other instruments are connected to the internet. The data provided by these systems are of great value for automated surveillance and detecting anomalies in them is a task of utmost importance.

Temporal graphs are a very effective model for IIoT data, where nodes represent devices; node features represent their measurements; and time-varying weighted edges capture various types of information. In the initial phase of this project, we have already developed powerful auto-encoder models capable of detecting both temporal and structural anomalies in temporal graphs. Yet, while our models allow us to detect the presence of an anomaly, they are still unable to localise it.

The main goal of this postdoctoral project is therefore to fundamentally extend our temporal graph auto-encoder models beyond anomaly detection to also perform anomaly localization.

Sujet :
The recruited postdoc will have two main goals:

Extension of Auto-Encoders for Anomaly Localization.

Our models currently receive a temporal graph as input and produce an anomaly score that is proportional to the severity of its abnormal events. Even though they can be used to localize anomalies by searching for the subset of maximal anomaly score, such an approach is impractical due to the exponential number of subsets to test. We aim to prune-down the search space by properly structuring the auto-encoder’s latent representation. This will require substantial architectural innovation to disentangle the auto-encoder’s structured representation and achieve fine-grained anomaly localization.
Application to IIoT logs and measurements.

We aim to evaluate the methodological developments above in real-world IIoT dataset that contain various types of attacks (structural anomalies) and measurement faults (feature anomalies). We aim to explore the advantages of our approach in real-world, potentially on-line, scenarios, such as machine health monitoring, transportation network monitoring, or other use cases that may arise from collaborations with local companies.

Profil du candidat :
We look for highly motivated candidates with relevant experience in anomaly detection, signal processing, graph machine learning, and/or deep learning. Experience in Python programming, cybersecurity and/or streaming algorithms is a plus. Ideal candidates will have a publication record in selective AI conferences.

Interested candidates are invited to send a cover letter, a detailed CV (with a publication list and the contact details of two references), and their PhD manuscript or a recent paper to:

esteban.bautista@univ-littoral.fr
claire.guilloteau@univ-littoral.fr

Applications will be reviewed on a rolling basis until the position is filled.

Formation et compétences requises :
PhD in Computer Science or related areas

Adresse d’emploi :
LISIC Laboratory, Saint-Omer, France

Document attaché : 202511041003_Postdoc___Temporal_Graph_Auto_Encoders____Job_Offer.pdf

Jan
1
Thu
2026
Postdoc offer at Telecom Paris, Institut Polytechnique de Paris
Jan 1 – Jan 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : DIG team, Télécom Paris
Durée : 12 months
Contact : nils.holzenberger@telecom-paris.fr
Date limite de publication : 2026-01-01

Contexte :

Sujet :
Hello,

We are hiring 2 PhD students and 1 postdoc to work on combining language models with structured data, at Telecom Paris, Institut Polytechnique de Paris. Start date can be between January and March 2026.

Large Language Models are amazing, and with our research project, we aim to make them even more amazing! Our project will connect large language models to structured knowledge such as knowledge bases or databases. With this,

1. language models will stop hallucinating

2. language models’ knowledge can be audited and updated reliably, to spot biases and make them more interpretable

3. language models will become smaller and thus more eco-friendly and deployable

We work in the DIG team at Telecom Paris, one of the finest engineering schools in France, and part of Institut Polytechnique de Paris — ranked 38th in the world by the QS ranking. The institute is 45 min away from Paris by public transport, and located in the green of the Plateau de Saclay.

Check out our Web site to apply: https://suchanek.name/work/research/kb-lm/index.html

Fabian Suchanek & Nils Holzenberger

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
19 place Marguerite Perey
91120 Palaiseau
FRANCE

Postdoctoral researcher in cosmology
Jan 1 – Jan 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Institut d’Astrophysique de Paris (IAP), Paris, F
Durée : 2+1 years
Contact : guilhem.lavaux@iap.fr
Date limite de publication : 2026-01-01

Contexte :

Sujet :
You will work within the research group led by G. Lavaux and F. Leclercq, funded by the Simons Foundation’s “Learning the Universe” collaboration. As a researcher, you will actively contribute to projects focused on the large-scale structure of the Universe—including galaxy clustering, the cosmic microwave background (CMB), and gravitational shear—by integrating artificial intelligence, Bayesian inference, physical modeling, cosmological simulations, the construction of synthetic galaxy catalogs, and the analysis of observational data from the Euclid mission.

You will also contribute to producing independent and original research within the team, exploring innovative approaches and publishing your findings in peer-reviewed scientific journals.

For full details and to submit an application, see https://shlink.aquila-consortium.org/postdoc-iap-apply

Profil du candidat :

Formation et compétences requises :
Knowledge / Expertise: Physics, cosmology, digital techniques, Bayesian formalism
Practical abilities: Scientific communication (writing papers, presenting at conferences or seminars), High-Performance computing and Machine Learning experience is welcome,
Languages: Professional written and spoken English required; French not mandatory.
Soft skills: Teamwork, respect, scientific integrity, openness to new scientific and technical developments
References: Submit a CV, cover letter, list of publications, and a research proposal of approximately 3 pages. Up to three letter of recommendations may be sent using the link https://shlink.aquila-consortium.org/postdoc-iap-1

Adresse d’emploi :
Institut d’Astrophysique de Paris, 98 bis boulevard Arago, 75014 Paris, France

Jan
10
Sat
2026
Ingénieur·e administrateur·trice de bases de données et développeur.se Python au sein de la Plateforme d’Épidémiosurveillance en Santé Végétale
Jan 10 – Jan 11 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : INRAE – BioSP
Durée : 12 mois
Contact : jean-baptiste.louvet@inrae.fr
Date limite de publication : 2026-01-10

Contexte :
La Plateforme d’Épidémiosurveillance en Santé Végétale (Plateforme ESV), créée en 2018, est le premier réseau
fondé par les plus grands acteurs français de la santé du végétal dont l’objectif est d’améliorer la surveillance sanitaire
et biologique du territoire face aux dangers sanitaires ou phénomènes phytosanitaires ayant un impact sur l’état
sanitaire des végétaux. Dans le cadre de cette plateforme, l’unité BioSP héberge la composante INRAE de l’équipe
opérationnelle qui compte 7 ingénieur-e-s. La Plateforme ESV apporte aux services compétents de l’État et, à leur
demande, aux autres responsables de dispositifs de surveillance, un appui méthodologique et opérationnel pour la
conception, le déploiement, l’animation, la valorisation et l’évaluation des dispositifs de surveillance sanitaire, ainsi
qu’en ce qui concerne l’investigation épidémiologique de phénomènes sanitaires propres aux végétaux. Des travaux
sont menés en appui à la surveillance officielle des organismes nuisibles réglementés ou émergents, dont la
surveillance de Xylella fastidiosa, du Nématode du pin, mais également la surveillance de la maladie du
HuangLongBing, de la Fusariose Tropicale Race 4 et du dépérissement de la vigne.
Depuis la création de la plateforme, différents outils ont été développés pour permettre à ses membre de mener leurs
missions à bien. Un outil de collecte et de mise à disposition de connaissances expertes pour la reconnaissance des
organismes nuisibles réglementés et émergents et mise à disposition du grand public a été mis en service en 2022.
Différents développements ont été réalisés pour le projet de Veille Sanitaire Internationale (VSI) : une pipeline de
collecte et de pré-traitement de données, une application web pour le traitement manuel des données, un ORM pour
faciliter les lectures et écritures dans notre base de données.

Sujet :
Au sein de l’équipe opérationnelle, vous aurez pour mission de développer, administrer, maintenir et faire évoluer
les systèmes de gestion de données de la Plateforme ESV. Vous en garantirez la cohérence, l’interopérabilité, la
qualité et la sécurité. Vous participerez également à la définition, à la mise en oeuvre et à l’évolution des bases de
données et des progiciels utilisés par la Plateforme ESV.
Vous prendrez part à l’implémentation, à l’évolution et à la maintenance du système d’information, en particulier
dans ses composantes liées aux bases de données et aux services associés, tels que les services Web sécurisés,
les pipelines de collecte et de traitement des données. Les technologies employées et les développements réalisés
devront tenir compte de la grande hétérogénéité des données traitées par la plateforme. Vous veillerez à concevoir
des solutions suffisamment flexibles pour intégrer de nouveaux formats de données.
Dans le cadre de vos activités, vous assurerez également le développement et la mise en oeuvre d’outils adaptés
aux besoins de la plateforme. Vous veillerez au suivi, au monitoring et à la performance des services mis en ligne,
tout en assurant la maintenance évolutive et corrective des outils et applications existants.
Votre travail se fera en étroite collaboration avec l’ingénieur architecte du système d’information, ainsi qu’avec les
épidémiologistes, les statisticiens et l’ensemble de l’équipe opérationnelle. Vous serez également amené à
interagir avec des informaticien-nes d’unités de recherche d’INRAE, ainsi qu’avec des partenaires de la Plateforme
ESV impliqués dans des systèmes d’information comparables. Enfin, d’autres missions pourront vous être confiées
en fonction des besoins de l’équipe opérationnelle, dans une logique d’adaptabilité et de soutien à la dynamique
collective de la plateforme (exemple : l’administration du plan de gestion de données et du dataverse de la
plateforme).

Profil du candidat :
Nous recherchons une personne titulaire d’un diplôme de licence, maîtrise ou master (bac+3/+5) avec une
spécialisation en informatique, administration de bases de données ou ingénierie logicielle. La capacité de mise en
oeuvre de progiciels, la maîtrise de technologies Web et des connaissances en visualisation des données seront des
atouts certains ; des expériences de travail dans des environnements duals de pré-production (tests et
développements) et de production (services en ligne) seront appréciées.

Formation et compétences requises :
Savoir-faire :
• Compétences nécessaires :
o Maîtrise du langage python
o Connaissances en développement web
o Connaissances en administration PostgreSQL
o Développement : algorithmique, tests
o Connaissance de Git
o Connaissance de Linux
o Rédaction de documentation
• Compétences appréciées :
o Connaissance de GitLab
o Connaissance du framework web Django
o Connaissance de la librairie SQLalchemy
o Expérience en webscraping
o Gestion de projet informatique (cahier des charges, spécifications techniques…)
Savoir-être :
• Compétences nécessaires :
o Être rigoureux, méthodique, savoir s’organiser et planifier son travail
o Être rigoureux, méthodique, savoir s’organiser et planifier son travail
o Savoir communiquer et vulgariser auprès d’un public d’informaticiens et de non-informaticiens
o Faire preuve d’initiative et être force de proposition
o Savoir travailler en équipe
• Compétences appréciées :
o Être à l’aise en anglais
o Avoir des connaissances en santé végétale
o Avoir une appétence pour l’aspect opérationnel

Adresse d’emploi :
Unité : BioSP (Biostatistique et Processus Spatiaux)
Équipe : Équipe OPE (opérationnelle INRAE pour la Plateforme nationale d’Épidémiosurveillance en Santé Végétale)
Lieu d’exercice : INRAE, Centre PACA, 228 route de l’aérodrome, 84000 Avignon

Document attaché : 202512031311_Fiche poste IE BDD 2025_VF.pdf

Jan
11
Sun
2026
Unified Access and Usage Model for Secured Federation of Knowledge Graphs
Jan 11 – Jan 12 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIRIS
Durée : e year, renewable
Contact : Philippe.Lamarre@insa-lyon.fr
Date limite de publication : 2026-01-11

Contexte :
In today’s increasingly interconnected world, the ability to share data across systems and organisations has become both a necessity and a challenge. From scientific research to business intelligence, collaboration across data unlocks new insights and drives innovation. However, alongside this need for sharing lies a parallel and often conflicting demand: the need to maintain control over data. Organisations and individuals must safeguard sensitive information, uphold privacy regulations, and ensure compliance with legal frameworks, even as they participate in broader decentralised data ecosystems.
Tensions between data sharing and control are creating a data integration nightmare, slowing down data investigations.

In order to enable a researcher to simply formulate in natural language what data is needed, and computers instantly deliver correct and complete results with clear provenance, licensing terms, and usage restrictions, the ANR project SaFE-KG (2025-2028) aims to propose a secure federation of Knowledge Graphs, integrating trusted authentication and authorization mechanisms. Unlike traditional federations that assume public accessibility, SaFE-KG will develop solutions for secure, scalable, and efficient federations. It gathers the efforts of three teams: GDD LS2N Nantes, Wimmics INRIA Sophia Antipolis and Université Côte d’Azure, DB LIRIS Lyon.

Sujet :
The general aim of this post-doctoral position is to contribute to the SaFE-KG framework, with a central focus on an unified model for representing access and usage across a federation of knowledge graphs cite{conf/www/Aimonier-DavatN24}, allowing for consistent data sharing across organisations while maintaining compliance with individual policies. A challenge is to design an authorization model flexible enough to handle different configurations of KG federations and different granularities of policy declarations. Our approach is to externalize authorizations from knowledge graph servers by defining a standard interface that can be used with any engine. The objectives also includes federated engine query log modeling and reasoning for transparency and accounting.

The following objectives should be targeted:

_ Access control abstraction. At the very first relevant technical choices must be made to enforce authentication in the federation. Then, the objective is to define a flexible access control model and language for a KG federation. This model should support the specification of policies at different levels of granularity to better align with the diverse security requirements and models of participating knowledge graph providers. To ensure interoperability and adaptability, we aim to base this model on existing standards such as: OIDC for authentication, UMA (User Managed Access) and/or ODRL (Open Digital Rights Language). Two key challenges arise: designing a model that limits its impact on the performance of a federation engine and enabling the analysis of compliance and potential conflicts among the different policies defined by federation members.

_ Usage control. The objective is to enrich the model with usages. The sources describe their usage policy at some granularity level. Then the federation engine exploits these declarations to restrain the request to be usage compliant. While there already exist several usage control frameworks, in SaFE-KG, in addition to performance, we will pay particular attention to benchmarking, and domain independence which currently lack focus cite{Akaichi25}.

_Query logging for transparency and accounting. The objective is to provide a comprehensive view that enables accounting, auditing and compliance verification. To achieve this, the federation engine must log or more precisely, trace user queries and their meta-data with varying levels of detail, including the issued query, the execution plan used, and a summary of the responses obtained, among other elements. This provides a global view of the queries where the sources’ data are involved, including sensitive data. It allows to analyze and correlate the queries to check their compliance (by also considering their combination) with access requirements set up by the information provider.

The work should be based on existing standards, models and previous results cite{tr/Solid, safe-jbms2017, DBLP:conf/dexa/EndrisALVA18, DBLP:conf/dexa/GoncalvesVE19, CostabelloAndAl12,conf/esws/EkelhartEK21, SAMAVI20181}, keeping pragmatic with respect to SaFE-KG objectives. To define a unifying model, an approach could be to proceed incrementally considering that the federation engine: (i) has minimal involvement in security aspects (integrating identifiers, roles, and profiles); (ii) enforces its own access policy (without the sources revealing their own) ; (iii) (partially) knows the sources’ security policies.

Profil du candidat :
PhD in Computer Science with both both theoretical and applied skills in semantic web and associated tools, logical reasoning with knowledge of access control and/or usage control.

Formation et compétences requises :

Adresse d’emploi :
The work will take place within the database team (DB) of the LIRIS laboratory, in collaboration with the other teams of the ANR project SaFE-KG.

INSA de Lyon – Campus de la Doua
20, avenue Albert Einstein
69 621 VILLEURBANNE CEDEX
FRANCE

Document attaché : 202512081009_SaFE-KG_UnifiedAccessAndUsageModel_PostDocCall.pdf

[Post-doc] Online Optimal Transport
Jan 11 – Jan 12 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LITIS Lab
Durée : 18 months
Contact : paul.honeine@univ-rouen.fr
Date limite de publication : 2026-01-11

Contexte :

Sujet :
Optimal transport (OT) is a powerful framework to define and compute distances between distributions (a.k.a. Wasserstein or earth mover’s distance), with a tractable computation thanks to the Sinkhorn algorithm [1]. Entropic regularization, which enables fast iterative scaling and GPU-friendly computation of the OT, providing the backbone of modern scalable OT pipelines.

Major challenges arise in exploring OT for domain adaptation on streaming data. While an online Sinkhorn algorithm was introduced in [2] to address the OT distances computation from sample streams, it does not operate in an online manner. The major issue is that the functions are evaluated on an increasing amount of newly available samples. which yields a memory complexity of O(n) and a time complexity of O(n^2). In order to fully operate in an online manner, the evaluations should not rely on all the previously available samples. Some attempts were provided to mitigate this major issue, such as by performing measure compression techniques (which are computationally expensive) [3] and by combining streaming quantile approximation with sliced OT [4].

This post-doc fellowship aims to provide theoretical foundations and algorithmic developments for OT on streaming data, mainly time series. For this purpose, the post-doc fellow will leverage earlier research results and take full advantage of the literature of adaptive signal processing and representation learning with deep learning.

This post-doc is an integral part of the global project OOD (Online Deep anomaly Detection), bringing together 4 PhD students and several permanent researchers from the Machine Learning group of the LITIS Lab.

[1] G. Peyré and M. Cuturi, “Computational optimal transport: With applications to data science,” Foundations and Trends® in Machine Learning, vol. 11, no. 5-6, pp. 355–607, 2019.
[2] A. Mensch and G. Peyré, “Online sinkhorn: Optimal transport distances from sample streams,” in NeurIPS, vol. 33, pp. 1657–1667, 2020.
[3] F. Wang, C. Poon and T. Shardlow, “Compressed online Sinkhorn,” arXiv preprint arXiv:2310.05019, 2023.
[4] K. Nguyen, “Streaming Sliced Optimal Transport,” arXiv preprint arXiv:2505.06835, 2025.

Profil du candidat :
Requirements:
PhD in applied mathematics, machine learning, advanced statistics, computer science or related.
Strong background in advanced optimization and machine learning.
Proficiency in Python.

If interested, please send CV in a motivational email to paul.honeine@univ-rouen.fr, gilles.gasso@insa-rouen.fr, maxime.berar@univ-rouen.fr and fannia.pacheco@univ-rouen.fr

Formation et compétences requises :

Adresse d’emploi :
Rouen (Normandy)

[postdoc] Coordination et contrôle de groupes de robots aériens
Jan 11 – Jan 12 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : U2IS, ENSTA
Durée : CDD de 2 ans
Contact : mario.gleirscher@ensta.fr
Date limite de publication : 2026-01-11

Contexte :
Veuillez consulter le document ci-joint.

Sujet :
Le poste proposé aura pour objectif principal d’améliorer les technologies de pointe en matière de contrôle robuste de la manipulation d’objets aériens et de contribuer à l’amélioration des infrastructures de recherche correspondantes (par exemple, la simulation et l’expérimentation). Vos responsabilités :

* Mener des recherches sur des thèmes liés au projet.
* Publier les résultats de recherche dans des revues internationales.
* Soutenir le développement de simulations et d’expériences en intérieur et en extérieur.

Profil du candidat :
Veuillez consulter le document ci-joint.

Formation et compétences requises :
Connaissances essentielles:
* Expérience confirmée en recherche et publications pertinentes dans au moins un des domaines suivants : contrôle des systèmes aériens, contrôle multi-agents, contrôle optimal robuste
* Doctorat en contrôle, mécatronique, systèmes embarqués, construction mécanique, physique ou similaire
* Bonnes compétences en programmation en C, C++ ou Python
* Capacité et volonté de travailler de manière fiable au sein d’une équipe ainsi que de manière autonome et indépendante

Connaisances désirables:
* Bonnes compétences en simulation de systèmes dynamiques et en utilisation d’ outils de visualisation, tels que matplotlib, gnuplot ou Gazebo
* Bonne connaissance des middlewares de capteurs et de systèmes de contrôle (e.g., ROS) et des systèmes d’exploitation en temps réel (basés sur Unix/Linux)

Adresse d’emploi :
Details: https://perso.ensta.fr/~gleirscher/postdoc-asc-fr.pdf
Application: https://enstaparis.recruitee.com/o/post-doctorant-4

Document attaché : 202512081122_postdoc-asc-fr.pdf

Jan
15
Thu
2026
Postdoctoral Researcher in Cosmological Modelling and Inference
Jan 15 – Jan 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Institut d’Astrophysique de Paris (IAP), Paris, F
Durée : 2 years
Contact : florent.leclercq@iap.fr
Date limite de publication : 2026-01-15

Contexte :

Sujet :
The Institut d’Astrophysique de Paris (IAP) invites applications for a two‑year postdoctoral position in cosmological modelling and inference. See the full position description and application instructions here: https://cloud.aquila-consortium.org/s/Postdoc_ad_INFOCW

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
Institut d’Astrophysique de Paris (IAP), 98bis boulevard Arago, F-75014 Paris, France

Jan
16
Fri
2026
Postdoctoral position: Long Term Time series prediction in environmental sciences
Jan 16 – Jan 17 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIFAT, Université de Tours
Durée : 6 months (end in Jun
Contact : nicolas.ragot@univ-tours.fr
Date limite de publication : 2026-01-16

Contexte :
The JUNON project, driven by the BRGM, is granted from the Centre-Val de Loire region through ARD program (« Ambition Recherche Développement ») which goal is to develop a research & innovation pole around environmental resources (agriculture, forest, waters…). The main goal of JUNON is to elaborate digital services through large scale digital twins in order to improve the monitoring, understanding and prediction of environmental resources evolution and phenomena, for a better management of natural resources. Digital twins will allow to virtually reproduce natural processes and phenomena using combination of AI and environmental tools.
JUNON will focus on the elaboration of digital twins concerning quality and quantity of ground waters, as well as emissions of greenhouse gases and pollutants with health effects, at the scale of geographical area corresponding to the North part of the Centre-Val-de-Loire region.
These digital twins will rely on geological and meteorological knowledge and data (time series), as well as physic-based models.
The project actors are: BRGM, Université d’Orléans, Université de Tours, CNRS, INRAE, and ATOS and ANTEA companies. There are 5 work packages (WP):
1. User’s needs and geological knowledge for ground water
2. User’s needs and biological/chemical knowledge about pollutants and greenhouse gases
3. Data management and data mining
4. Time series prediction
5. Aggregation and realization of digital twins themselves
The postdoctoral position will be in the WP 4, focused on the prediction of quantity of ground waters. There will be strong interactions with WP 1 and 3 (BRGM) through postdocs and engineers. The work will be supervised by the LIFAT – RFAI and you will have to interact with one PhD student in JUNON as well. Interaction with the RFAI group and other PhDs working on similar subjects will also be done.

Sujet :
While the BRGM (a postdoc to be recruited) will have in charge to collect and arrange data (ground waters levels at different locations) and to benchmark predictions with mechanistic models as well as with classical prediction AI tools, the goal of the postdoc will be
– To set up an evaluation protocol and SOTA approaches to design a specific competition for an upcoming conference. The protocol will relies on previous analysis and data and will focus on infrastructure and meachnisms to deliver data to participants according to different scenarii including continual learning ones
– to build new prediction models (able to integrate several sources of information ; using correlation between mulitple sensors ; using knowledge transfer or domain adaptation, etc.)

Profil du candidat :
The position is initially for a postdoc position but candidates with a Master of Science degree and strong skills and experience in Machine Learning for Time Series could also apply.

Formation et compétences requises :
– required:
– strong experience in data analysis and machine learning (theory and practice of deep learning in python)
– experiences/knowledge in time series prediction with SOTA deep learning approaches
– interest or experiences with environmental science (hydrogeology, air pollution…)
– curiosity and ability to communicate (in English at least) and work in collaboration with scientists from other fields
– ability to propose and validate new solutions and to publish the results
– autonomy and good organization skills

Adresse d’emploi :
Computer Science Lab of Université de Tours (LIFAT), Pattern Recognition and Image Analysis Group (RFAI)
https://www.rfai.lifat.univ-tours.fr
64 av. Jean Portalis,
37200 TOURS
FRANCE

Document attaché : 202510311520_Fiche de poste Pdoc 2 Junon.pdf

Apr
29
Wed
2026
Ingénieur expert en Intelligence Artificielle
Apr 29 – Apr 30 all-day

Offre en lien avec l’Action/le Réseau : – — –/Innovation

Laboratoire/Entreprise : Université de Technologie de Troyes
Durée : 4 ans (2+2)
Contact : malika.kharouf@utt.fr
Date limite de publication : 2026-04-29

Contexte :
L’expert (F/H) en Intelligence Artificielle sera intégrée à la Direction de la Formation et de la Pédagogie (DFP) de
l’Université de Technologie de Troyes (UTT). Dans le cadre du Cluster IA Hi!Paris, financé par France 2030, elle fera
partie d’une équipe projet impliquant la formation initiale, la formation continue, la coopérative pédagogique (le centre
d’innovation pédagogique de l’UTT) et aura pour missions principales :
1. Le soutien actif à la création et la mise à jour des contenus pédagogiques dédiés au Bachelor en Intelligence
Artificielle.
2. L’apport de son expertise technique et scientifique aux équipes enseignantes, de la DFP et de la Coop afin
d’assurer la qualité, la pertinence et l’innovation des contenus proposés.
3. Assurer un volume annuel de 100 heures équivalent Travaux Dirigés (TD)
4. Contribuer aux comptes rendus, rapports d’activité et constitution de pièces justificatives demandées par le
financeur.

Sujet :
Activités principales :
• Identifier les besoins spécifiques en formation IA.
• Adapter les contenus pédagogiques à différents publics (débutants, confirmés, professionnels).
• Assister les équipes pédagogiques dans l’intégration des dernières avancées technologiques et scientifiques en IA.
• Organiser des sessions de formation interne et/ou d’accompagnement pédagogique.
• Dispenser des enseignements de l’IA comprenant cours magistraux, travaux dirigés, travaux pratiques et projets.
• Évaluer les compétences acquises par les étudiants.
• Participer aux jurys d’examen et à la coordination pédagogique du Bachelor.• Garantir la pertinence, l’actualité et l’évolutivité des ressources pédagogiques en fonction des avancées du
domaine
• Contribuer à la démarche qualité des formations : recueil des retours d’expérience, évaluation des apprentissages,
ajustements continus
• Soutenir, ponctuellement, les activités de la DFP

Profil du candidat :
• Connaissances approfondies des fondements théoriques et techniques de l’Intelligence Artificielle (machine
learning, deep learning, NLP, vision artificielle, systèmes experts, apprentissage par renforcement, éthique de l’IA,
optimisation algorithmique, statistiques avancées).
• Connaissances générales des principaux outils et plateformes utilisés en IA (TensorFlow, PyTorch, scikit-learn, Keras,
etc.).
• Capacité à créer, adapter et mettre à jour des contenus pédagogiques innovants adaptés à différents formats
(présentiel, distanciel, hybride).
• Mise en œuvre de cas réels ou simulés d’utilisation de l’IA lors de projets ou de TP.
• Maîtrise des outils technologiques et pédagogiques liés à l’IA.
• Aptitude à évaluer efficacement les compétences des étudiants.
• Rédiger des documents pédagogiques, rapports d’activités, bilans et supports de communication

Formation et compétences requises :

Adresse d’emploi :
12 rue Marie Curie, 10300 Troyes

Document attaché : 202509111211_F_H Ingénieur_Expert_IA.pdf

Offres de thèses

Nov
30
Sun
2025
Modélisation hybride d’arbre fruitier en 3D associant structure-fonction et deep-learning – Application à la conception de vergers agro-écologiques
Nov 30 – Dec 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : UMR AGAP Institut, CIRAD, Montpellier
Durée : 3 ans
Contact : frederic.boudon@cirad.fr
Date limite de publication : 2025-11-30

Contexte :
Les modèles structure-fonction (FSPM) permettent d’analyser finement le fonctionnement et la croissance des plantes dans des environnements fluctuants. Ils simulent l’interaction entre la structure modulaire de la plante, sa géométrie (distribution spatiale 3D) et les processus physiologiques en interaction avec l’environnement (Prusinkiewicz, 2004 ; Fourcaud et al., 2008 ; Louarn et Song, 2020). Ses modèles considèrent que la structure tridimensionnelle des plantes constitue à la fois son interface avec l’environnement et un déterminant majeur de leur croissance et leur productivité (Costes et al., 2006). Ils sont particulièrement mobilisés pour l’étude et la modélisation d’arbres fruitiers (Costes et al., 2008 ; Allen et al., 2005 ; Lescourret et al., 2011 ; Boudon et al., 2020) où la compétition interne pour les ressources entre organes exige des représentations dynamiques et spatialisées. Toutefois, un obstacle majeur réside dans la paramétrisation de ces modèles, qui limite leur adoption pour le développement d’outils d’aide à la décision en gestion de vergers (DeJong, 2019) et, plus largement, freine leur diffusion au sein de la communauté scientifique.

La télédétection, associée aux méthodes d’analyse basées sur le deep learning, offre un fort potentiel pour caractériser le fonctionnement et la croissance des plantes, et ainsi contribuer à la paramétrisation des modèles structure-fonction. L’émergence récente de capteurs variés (caméras RGB, LiDAR, thermiques, etc.) et de plateformes d’acquisition (drones, phénomobiles, etc.) ouvre de nouvelles perspectives pour le phénotypage haut débit et le suivi des vergers. Plusieurs initiatives récentes visent à automatiser le phénotypage des arbres, mais elles se focalisent généralement sur un nombre restreint de traits, souvent insuffisant pour alimenter un FSPM de manière complète (Streit et al., 2023).

Dans ce contexte, l’objectif de cette thèse est de développer une nouvelle génération de modèles FSPM d’arbres fruitiers, hybridant les approches classiques de modélisation avec des données haut débit issues du phénotypage en verger. En s’appuyant notamment sur les projets Gardens et PHENET, l’utilisation de FSPM paramétrés par des données de phénotypage haut débit permettra de produire des jumeaux numériques et de caractériser et explorer “in silico” la résilience de systèmes agricoles.

Un enjeu majeur des approches FSPM est de pouvoir reproduire et simuler des structures topologiques décrivant l’architecture de la plante et leurs informations géométriques ou physiologiques associées, notamment issues de la télédétection. Ces structures peuvent être décomposées en séquences qui représentent par exemple la ramification le long des axes de la plante. Des méthodes statistiques dédiées (Guédon et al., 2001) ont été développées par la communauté scientifique pour pouvoir analyser et simuler ces séquences. Récemment, les grands modèles de langage (LLM) ont connu une évolution remarquable, révolutionnant le traitement du langage naturel et trouvant des applications dans divers domaines scientifiques. Ils reposent principalement sur des architectures de réseaux de neurones avancées, parmi lesquelles les Transformers (Vaswani et al., 2017) jouent un rôle central. Contrairement aux modèles séquentiels classiques comme les RNN (Recurrent Neural Networks) ou les LSTM (Long Short-Term Memory), les Transformers exploitent un mécanisme d’attention permettant de traiter les données en parallèle plutôt que de manière séquentielle. Ce mécanisme, dit Self-Attention, pondère l’importance de chaque élément dans une séquence par rapport aux autres, améliorant ainsi la capture des dépendances à longue portée dans une séquence. Par ailleurs, d’autres approches comme les Autoencodeurs Variationnels (VAE) (Kingma & Welling, 2013) sont également utilisées dans certains modèles de génération, notamment pour apprendre des représentations latentes structurées du langage. Ces approches ouvrent des perspectives prometteuses pour leur application en modélisation FSPM, notamment en facilitant l’apprentissage et la génération automatique de structures arborescentes représentant l’architecture des plantes.

Sujet :
Lors de la première étape, ce projet s’appuiera sur des modèles FSPM existants dans la plateforme libre OpenAlea, tels que MappleT (pommier), dans lesquels la structure des arbres est modélisée par des processus stochastiques (p. ex. semi-chaînes de Markov cachées) calibrés à partir de relevés de croissance dont l’acquisition et l’analyse sont coûteuses en temps et en expertise. Une première étape de la thèse consistera à étendre un modèle d’arbre FSPM en générant la structure arborescente à l’aide de “Large Language Models” (LLM), notamment des réseaux Transformers ou des Variational Autoencoders (VAE), afin de générer la succession des organes et leurs types associés. Les observations et les sorties des modèles statistiques déjà calibrés serviront à entraîner et à paramétrer ces réseaux.

Une deuxième étape sera de simuler un modèle FSPM d’arbre fruitier contraint par des données LIDAR, issues des projets PHENET (pommier) et Gardens (citrus). A partir de ces scans, des structures topologiques augmentées d’information géométriques seront générées. Et les réseaux entraînés précédemment seront étendus pour permettre la génération de ces structures et de leurs informations associées. Un enjeu majeur consistera à développer des codages relatifs (paramétrisation des entités en fonction des paramètres du nœud parent) adaptés à ces informations pour garantir une génération séquentielle cohérente des éléments de l’architecture.

Enfin, dans une troisième étape, nous explorerons l’utilisation de descriptions partielles à certaines phases clés de la croissance. Par exemple, des reconstructions LiDAR pourraient être disponibles uniquement au début et à la fin d’un cycle de croissance, tandis que des observations plus approximatives (vols de drone estimant le volume global de la plante, distribution spatiale de la végétation, etc.) pourraient être obtenues à intervalles réguliers. Dans ce contexte, un apprentissage par renforcement sera utilisé pour calibrer les modèles de croissance. Ce cadre permettra d’alterner entre l’exploitation des données existantes pour optimiser la génération de la structure et l’exploration de nouvelles configurations possibles

Dans une dernière étapes, ces méthodes seront appliquées pour reconstruire un verger en 3D à partir d’informations de phénotypage (drones, LIDAR) puis de simuler des processus biophysiques difficilement observables comme l’interception de la lumière ou le stress hydrique afin d’estimer la résilience du système, la distribution des ressources dans ces systèmes (lumière, eau) et de proposer de nouveaux traits (dans notre cas représentés comme des paramètres de modèles), de nouvelles variétés, et de nouvelles conduites (densité d’arbres, taille, association d’espèces) permettant d’optimiser ces systèmes.

Profil du candidat :
Titulaire d’un master en informatique ou d’un diplôme d’ingénieur avec des compétences en deep learning et idéalement en 3D.
Programmation en Python et C/C++.
Intérêt pour la biologie et l’agronomie.

Formation et compétences requises :

Adresse d’emploi :
CIRAD, Phenomen team, UMR AGAP
Avenue Agropolis TA A-108 / 01
34398 Montpellier Cedex 5, France

Document attaché : 202510131618_these-assimilation-vf-2025.pdf

Dec
15
Mon
2025
Monitoring traditional agricultural crop fields with multi-modal multi-temporal Synthetic Aperture Radar data
Dec 15 – Dec 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : SIEO Lab Romania/LISTIC France
Durée : 36 mois
Contact : yajing.yan@univ-smb.fr
Date limite de publication : 2025-12-15

Contexte :

Sujet :
Distinct agricultural crops and practices play a central role in shaping the culture and cultural heritage of rural communities in specific regions. The Brașov region in Romania, for instance, is particularly renowned for its potato and sugar beet cultivation, which has earned it the designation ‘Potato Country’. However, these traditional crops are increasingly being replaced by others, such as rapeseed, which are more resilient and better adapted to changing climate conditions. This shift contributes to the loss of cultural heritage. Remote sensing, and in particular Synthetic Aperture Radar (SAR), provides valuable insights into vegetation structure, soil roughness, and soil moisture. The Copernicus program of the European Commission, together with other space agencies, offers free and regularly updated data for the long-term monitoring of agricultural systems. In this project, conducted in close collaboration between French and Romanian research units, we aim at contributing to the preservation of cultural heritage in the selected region of Romania, while the ultimate goal is to take steps towards the development of global strategies to address climate change. In order to reach the aim, we leverage multi-modal, multi-temporal SAR data to (i) quantify the impact of climate change on traditional agricultural crops, (ii) estimate the water demand of these crops, (iii) evaluate nature-based solutions to preserve soil quality, and (iv) predict future dynamics.

Research aims: leverage multi-modal (multi-frequency, multi-resolution, multi-polarization, complex signal/amplitude/interferometric coherence/phase), multi-temporal SAR data to monitor the crop growth, crop fields roughness and moisture evolution.

Methodology:
• Analyze the historical data of agricultural crops on the identified cultural heritage sites in Romania
• Multi-modal multi-temporal SAR data collection and pre-processing
• Perform SAR data analysis for the assessment of climate change impact
– crop structure evolution analysis
– soil roughness evolution analysis
– soil moisture evolution analysis
– correlation analysis with in situ data
• Predict the future dynamics with meteorological data
• Create open access data sets and tutorials for the community

Profil du candidat :
We seek for Ph.D candidates with Master degrees on remote sensing, environment and geosciences, information science. Good English skill is necessary for communication. The Ph.D student will spend 24 months in Romania and 12 months in France.

Formation et compétences requises :

Adresse d’emploi :
Space Intelligence and Earth Observation Research Laboratory, Transilvania University of Brasov, Romania,
LISTIC, University Savoie Mont Blanc, Annecy, France

Document attaché : 202511051450_PhD_subject_crop_monitoring.pdf

Dec
22
Mon
2025
Secure Federated Querying of Knowledge Graphs
Dec 22 – Dec 23 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : LS2N
Durée : 3 year
Contact : hala.skaf@univ-nantes.fr
Date limite de publication : 2025-12-22

Contexte :
I am seeking excellent candidates for a fully funded 3-year Phd position funded by the ANR SaFE-KG project.
Goal: Formalise, design, and implement a secure, efficient federation engine enabling LLM-like querying across sensitive biomedical knowledge graphs, with fine-grained access control and provenance.

Sujet :
In the context of SaFE-KG, the main objectives of the thesis is to design and implement an Efficient and Secure Federation Engine able to:

Query decentralized knowledge graphs under fine-grained access control policies.
Ensure high performance and scalability in secure federations.
Interact with LLM to support query building
Return results enriched with provenance and usage control information.
Support adaptive query processing techniques, including secure sampling.

Profil du candidat :
Solid background in Semantic Web, knowledge graphs, SPARQL; familiarity with sampling and/or ML/LLMs is a plus.

Formation et compétences requises :
Master’s in CS/IS (strong ranking).

Adresse d’emploi :
LS2N, Nantes Université

Document attaché : 202509221432_SujetThèse-Safe-KG-5.pdf

Dec
31
Wed
2025
Deep Generative Models of Physical Dynamics: Representation, Generalization, and Multiphysics Learning
Dec 31 2025 – Jan 1 2026 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ISIR – Institut des Systèmes Intelligents et de Ro
Durée : 36 mois
Contact : patrick.gallinari@sorbonne-universite.fr
Date limite de publication : 2025-12-31

Contexte :
AI4Science is an emerging research field that investigates the potential of AI methods to advance scientific discovery, particularly through the modeling of complex natural phenomena. This fast-growing area holds the promise of transforming how research is conducted across a broad range of scientific domains. One especially promising application is in modeling complex dynamical systems that arise in fields such as climate science, earth science, biology, and fluid dynamics. A diversity of approaches is currently being developed, but this remains an emerging field with numerous open research challenges in both machine learning and domain-specific modeling.

Generative modeling is transforming machine learning by enabling the synthesis of plausible, high-dimensional data across modalities like text, images, and audio. A similarly profound shift is underway in the sciences, where generative deep learning is being leveraged to model complex physical dynamics governed by partial differential equations (PDEs)—especially in cases where traditional simulations are computationally expensive.

The central goal of the PhD project is to investigate whether deep generative architectures—such as diffusion, flow-matching, or autoregressive transformer-based sequence models—can be designed to simulate, generalize, and interpolate physical dynamics across a wide range of parametric and multiphysics regimes. Building on recent advances in neural surrogate modeling, this research will aim to advance generalizable, cross-physics generative modeling.

Sujet :
RESEARCH OBJECTIVES

The overarching research question is: Can we develop generative models that learn structured, physically grounded representations of dynamical systems—enabling synthesis, adaptation, and generalization across physical regimes and multiphysics settings? It unfolds into several complementary directions:

LATRENT GENERATIVE MODELS FOR PHYSICAL DYNAMICS

The objective is to design generative models—such as diffusion, flow-matching, or autoregressive models—that learn compact and interpretable latent representations of spatiotemporal dynamics governed by PDEs. These models should:

• Capture uncertainty and multimodality in solution trajectories.
• Generalize across parametric variations.

LEARNING ACROSS MULTIPHYSICS SYSTEMS

To enable transfer learning across heterogeneous physics, we will explore shared latent representations across families of PDEs:
• Using encode–process–decode frameworks.
• Applying contrastive or multitask training to uncover reusable physical abstractions.
• Designing models invariant to space/time resolution and units.
This direction builds toward foundation-like models that capture generalizable physics priors across simulation families.

FEW-SHOT and IN-CONTEXT GENERALIZATION TO NEW PHYSICS

To support scientific modeling in data-scarce settings, we will develop methods for few-shot generalization such as:
• Fine-tuning latent priors to new PDE systems using limited examples.
• Exploring meta-learning and prompt-based adaptation techniques (inspired by in-context learning in language models).
• Incorporating known physical constraints into the generative process.
The goal is to enable rapid and physically consistent adaptation to previously unseen dynamics with minimal data and supervision.

Profil du candidat :

Computer science or applied mathematics.
Master degree in computer science or applied mathematics, Engineering school.

Formation et compétences requises :
Good programming skills. Background and experience in machine learning.

Adresse d’emploi :
Sorbonne Université (S.U.), Pierre et Marie Campus in the center of Paris. The candidate will integrate the MLIA team (Machine Learning and Deep Learning for Information Access) at ISIR (Institut des Systèmes Intelligents et de Robotique).

Document attaché : 202505191314_2025-05-01-PhD-Description-Generative-models-Physics.pdf

Gender dynamics in collaboration networks
Dec 31 2025 – Jan 1 2026 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Laboratoire Informatique d’Avignon avec codirect
Durée : 3 ans
Contact : rosa.figueiredo@univ-avignon.fr
Date limite de publication : 2025-12-31

Contexte :
ANR project EVA – EValuating gender policies in academia through the Analysis of scientific collaboration networks.

Sujet :
https://eva.univ-avignon.fr/wp-content/uploads/sites/34/2025/04/offre.pdf

Profil du candidat :
• Master’s degree (or equivalent) in Computer Science, Applied Mathematics, Operations Research, or a related field.
• Strong ability to write and present research clearly.
• Proficiency in Python, R, Julia or C++, with experience in AI and optimization algorithms.
• Good understanding of graph theory, machine learning, and network analysis.
• Ability to work well in an interdisciplinary team.
• Proficiency in English is required, and knowledge of French is an advantage

Formation et compétences requises :

Adresse d’emploi :
LIA, Avignon

Document attaché : 202504251721_offreThesis_EVA.pdf

Neural networks based volcanic model inversion with SAR displacement measurements
Dec 31 2025 – Jan 1 2026 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LISTIC
Durée : 36 mois
Contact : yajing.yan@univ-smb.fr
Date limite de publication : 2025-12-31

Contexte :

Sujet :
Satellite based remote sensing offers a unique source of information to monitor the environnement, with fine spatial resolution, wide coverage and frequent revisit. This enables
addressing the challenge of natural hazard monitoring and forecasting, which has a significant societal impact. The inverse modeling of surface displacement is one of the major techniques of exploring the subsurface feature of volcanoes. The traditional Monte Carlo direct search approaches are
computational resources and time consuming, thus cannot respond to operational needs. We will explore the potential of deep learning in volcanic inverse modeling with Interferometry
Synthetic Aperture Radar (InSAR) for operational monitoring and forecasting of volcanic hazards. The intrinsic ill-posedness of inversions in volcanology and limited amount of labeled InSAR data make this work challenging. We tackle the problem of volcanic model inversion, i.e. to estimate model parameters from surface displacement estimations issued from InSAR by solving an inverse problem. This Ph.D thesis will elaborate on our previous proof-of-concept work where a frugal ResNet model was deployed for the first time to estimate the volume change and depth of a spherical volcanic source (i.e. Mogi) from synthetic InSAR displacement fields. This ResNet model exhibits distinct advantages of computational efficiency over the state-of-the-art Monte Carlo direct search methods. For this thesis, the Ph.D student will use more sophisticated volcanic models (e.g. fracture, numerical boundary element models, etc.) allowing for simulations of displacement fields caused by more complex volcanic sources to further increase the generality of the previously proposed ResNet model. One main effort will be devoted to the improvement of the ResNet model prediction accuracy by increasing training data diversity (e.g. divers SAR
acquisition geometries, near field/far field and multi-resolution measurements) and by elaborating more adapted loss functions corresponding to appropriate model properties to optimize (e.g. combination of a loss function of estimated model parameters and a loss function of the reconstructed displacement field). These two latter actions also help minimize the ill-posedness. Real InSAR displacement measurements related to both intrusion and reservoir type worldwide volcanoes will be used to fine-tune the ResNet model trained by synthetic data for
further validation in real applications.

Profil du candidat :
The Ph.D candidate should have good skills in machine learning. Knowledge in inverse problem or geophysics is appreciated.

Formation et compétences requises :

Adresse d’emploi :
LISTIC, 5 chemin de bellevue, 74944, Annecy-le-Vieux

Jan
1
Thu
2026
PhD and postdoc offers at Telecom Paris, Institut Polytechnique de Paris
Jan 1 – Jan 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : DIG team, Télécom Paris
Durée : 39 months
Contact : nils.holzenberger@telecom-paris.fr
Date limite de publication : 2026-01-01

Contexte :

Sujet :
Hello,

We are hiring 2 PhD students and 1 postdoc to work on combining language models with structured data, at Telecom Paris, Institut Polytechnique de Paris. Start date can be between January and March 2026.

Large Language Models are amazing, and with our research project, we aim to make them even more amazing! Our project will connect large language models to structured knowledge such as knowledge bases or databases. With this,

1. language models will stop hallucinating

2. language models’ knowledge can be audited and updated reliably, to spot biases and make them more interpretable

3. language models will become smaller and thus more eco-friendly and deployable

We work in the DIG team at Telecom Paris, one of the finest engineering schools in France, and part of Institut Polytechnique de Paris — ranked 38th in the world by the QS ranking. The institute is 45 min away from Paris by public transport, and located in the green of the Plateau de Saclay.

Check out our Web site to apply: https://suchanek.name/work/research/kb-lm/index.html

Fabian Suchanek & Nils Holzenberger

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
19 place Marguerite Perey
91120 Palaiseau
FRANCE

Jan
5
Mon
2026
On importance sampling for probability estimation of high-dimensional rare events with finite intrinsic dimensions
Jan 5 – Jan 6 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ISAE SUPAERO (Toulouse)
Durée : 3,6 ans
Contact : florian.simatos@isae.fr
Date limite de publication : 2026-01-05

Contexte :

Sujet :
Cf pdf

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
Toulouse

Document attaché : 202511080545_high-dimensional-IS-Mai-Simatos.pdf

Jan
16
Fri
2026
Apprentissage frugal de modèles génératifs multimodaux en contexte industriel
Jan 16 – Jan 17 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRT SystemX
Durée : 36 mois
Contact : faicel.chamroukhi@irt-systemx.fr
Date limite de publication : 2026-01-16

Contexte :
L’IRT SystemX propose une thèse sur l’apprentissage frugal de modèles génératifs multimodaux en contexte industriel. La thèse s’inscrit dans le cadre d’un projet collaboratif sur l’IA Générative pour l’Industrie, mené en partenariat avec notamment Air Liquide et Michelin, et son volet applicatif vise à adresser des cas d’usage industriels liés à la gestion de connaissances techniques en ingénierie de systèmes complexes.

Le poste est basé à Palaiseau et la thèse sera inscrite à l’école doctorale STIC de l’Université Paris-Saclay.

La thèse est financée pour une durée de 36 mois, avec une rémunération de 2784 € brut/mois, pour un démarrage souhaité début 2026.

Voici pdf ci-joint pour plus de détails sur le contexte.

Sujet :
Apprentissage frugal de modèles génératifs multimodaux en contexte industriel. Le volet applicatif vise à adresser des cas d’usage industriels liés à la gestion de connaissances techniques en ingénierie de systèmes complexes.

Voici pdf ci-joint pour plus de détails sur le sujet.

Profil du candidat :
Le(la) candidat(te) doit justifier d’un Master Recherche (ou formation équivalente avec un intérêt avéré pour la recherche) dans le domaine des sciences des données et de l’Intelligence Artificielle.

Formation et compétences requises :
Master Recherche ou équivalent en sciences des données et Intelligence Artificielle.
Intérêt marqué pour la recherche et goût pour les applications.
Solides compétences en inférence statistique et en optimisation.
Maîtrise de l’apprentissage profond.
Programmation en Python, avec expérience PyTorch/TensorFlow.
Des compétences sur les modèles d’IA générative serait un plus.

Pour postuler, merci d’envoyer les éléments suivants au format PDF à : faicel.chamroukhi@irt-systemx.fr
CV détaillé
Lettre de motivation
Relevés de notes des deux dernières années d’étude de Master ou de cycle ingénieur
Au moins une lettre de recommandation

Adresse d’emploi :
IRT SystemX,
2 Boulevard Thomas Gobert
91120, Palaiseau

Document attaché : 202510310836_Offre-de-These-IRTSystemX-DIT-2-2026-IAG1.pdf

Mar
31
Tue
2026
Self-improving AI Agents for Recommendation
Mar 31 – Apr 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Criteo AI Lab Paris
Durée : 36 mois
Contact : p.gallinari@criteo.com
Date limite de publication : 2026-03-31

Contexte :
As part of its ongoing transformation into an agentic-ready platform, Criteo is spearheading the integration of agentic AI across its full portfolio. These systems are already being deployed to automate internal operations, assist clients in the management and optimization of advertising campaigns, and to power personal shopping agents—autonomous assistants that act on behalf of end-users. These agents must reason, remember, and act autonomously in environments characterized by uncertainty, variability, and scale.
To fulfill this vision, one of the most pressing challenges is adaptability. Our agents must function across an extremely heterogeneous client base — each with unique product catalogs, optimization targets, and interface constraints while interacting with users and inferring their intents.

Sujet :
The objective of the PhD is to explore adaptation strategies to multiple and heterogeneous environments and user segments for an agentic system. In our setting these environments might correspond to different partners characterized by their own catalog, objective and strategy while user segments refer to user preferences or needs. We will restrict our scope to language-only agents and emphasize practical assistant scenarios.

In most scenarios, adaptation to new environments and to user intents shall leverage simple and computationally costless strategies, while being able to adapt for scarce data contexts available for these new settings. Adaptation places a significant demand on the system’s memory, which must be more than a static repository of facts. It must be an adaptive memory system, capable of restructuring and reprioritizing information as the user’s context evolves. Therefore, self-adaptation is intrinsically linked to memory management. The goal is to endow the agent with the ability to learn how to manage its own memory in response to a changing environment and user. The PhD will start to investigate different memory strategies and their potential for handling adaptation to new environments and to user interaction. We will explore mechanisms for the agent to develop learned policies for memory operations. Key research questions include:

• Learned Retention and Forgetting: How can an agent learn what information is critical to retain versus what is obsolete and should be forgotten or archived?

• Adaptive Retrieval Strategies: Can an agent learn the most effective way to query its memory? We will explore how the system can dynamically choose between different retrieval methods (e.g., vector-based RAG, evolving LLM context), based on the task.

• Automated Memory Summarization: How can the system “reflect” on its interaction history to create higher-level insights?
We will investigate techniques for the agent to periodically summarize streams of memories into more abstract knowledge (e.g., consolidating multiple shopping interactions into a persistent preference like “user prefers sustainable brands”).

Adaptation mechanism shall also be an element contributing to the planning mechanism of the agent: how can an agent make decisions when the goal is weakly defined, the feedback is sparse, and the environment varies by client? This is particularly relevant in domains like travel planning or multi-product recommendations, where a “one-size-fits-all” approach is neither feasible nor desirable. To complement memory-based methods, off-line reinforcement learning strategies could be considered.

Profil du candidat :
We are looking for a motivated researcher with a strong foundation in machine learning, natural language processing, applied maths. Familiarity with large language models, transformers, reinforcement learning, or continual learning will be considered a strong asset. Above all, we are seeking someone who is excited by the challenge of bringing intelligent agents to life in practical, high-impact applications.

Formation et compétences requises :
Master degree in computer science or applied mathematics, Engineering school. Background and experience in machine learning.

Adresse d’emploi :
Criteo AI Lab Paris

Document attaché : 202510021236_2025-10-Criteo-PhD proposal-Agents-LLMs.pdf

Offres de stages

Nov
16
Sun
2025
M2 Internship – Analysis and improvement of estimators of low-rank tensor models
Nov 16 – Nov 17 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRIT (Toulouse)
Durée : 5 to 6 months
Contact : henrique.goulart@irit.fr
Date limite de publication : 2025-11-16

Contexte :

Sujet :
We are seeking candidates for a 5- to 6-month internship on the analysis and improvement of estimators of low-rank tensor models, with the possibility of a PhD thesis afterwards (a PhD funding is secured). This subject is situated at the interface between mathematics and computer science, having applications in several domains, notably in data science and machine learning.

A detailed description can be found at: https://cloud.irit.fr/s/hZnoJgiopaqMkdV

Profil du candidat :
M2 student strongly motivated by mathematics and its application to statistical inference and machine learning. Prior knowledge on tensor algebra and on random matrix theory are a strong plus. Good communication skills (both oral and written) in English are required, notably for reading, writing and presenting scientific papers.

Formation et compétences requises :

Adresse d’emploi :
IRIT (Institut de Recherche en Informatique de Toulouse), site ENSEEIHT (2 rue Charles Camichel, Toulouse).

Nov
21
Fri
2025
Développeur.euse C++ HPC d’un code de simulation pour la formation de grandes structures en cosmologie
Nov 21 – Nov 22 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Institut d’Astrophysique de Paris
Durée : 4 à 6 mois
Contact : tchernia@iap.fr
Date limite de publication : 2025-11-21

Contexte :
La modélisation et la compréhension de l’histoire de l’Univers, depuis le Big Bang jusqu’à aujourd’hui, reposent sur l’évaluation de nos modèles
cosmologiques à partir des grands relevés astronomiques (Euclid, DESI…). L’un des objectifs est de simuler la formation des grandes structures afin d’évaluer la robustesse des modèles cosmologiques vis-à-vis des observations. L’Institut d’Astrophysique de Paris (IAP), une Unité Mixte de Recherche (UMR) de Sorbonne Université et du Centre National de la Recherche Scientifique (CNRS), est impliqué dans cette activité. En son sein, l’équipe « Grandes structures et Univers profond » à laquelle le.la stagiaire sera affecté.e a développé le code Simbelmynë, qui permet de :

1. Calculer l’évolution de la répartition de matière noire en résolvant les
équations du mouvement de la gravité à l’échelle de l’univers observable
(problème à N corps),
2. En déduire une répartition des galaxies dans le ciel,
3. Produire des relevés cosmologiques simulés.

Cette chaîne de simulation est appelée à être lancée un très grand nombre de fois pour des paramètres d’entrée variés. C’est pourquoi le respect des contraintes du calcul haute performance (HPC) et la parallélisation des tâches sont des enjeux clés de ce code. Grâce à l’approche sCOLA qui divise la portion d’univers à simuler en morceaux indépendants, il est possible d’adopter une approche hybride entre calculs à mémoire distribuée et à mémoire partagée. Nous souhaitons aujourd’hui le rendre portable sur plusieurs architectures cibles (CPU et GPU).

Pour plus de détails sur le contexte scientifique, voici un article de vulgarisation traitant de ce sujet : https://theconversation.com/vers-une-simulation-de-lunivers-sur-un-telephone-portable-137421

Sujet :
La.le stagiaire participera au portage de C vers C++ du code Simbelmÿne ainsi qu’au développement de codes de calcul parallèle utilisant des CPU et GPUs. Il/elle se formera au framework Kokkos et l’utilisera afin de produire un code générique compatible avec toutes les architectures cibles. Il/elle mettra ces codes en œuvre à l’aide du cluster de calcul du laboratoire, mettant à disposition CPUs et GPUs. Il/elle travaillera en équipe et versionnera son code à l’aide de Git et produira les tests unitaires et benchmarks garantissant la qualité, la performance et la robustesse de son code.

Profil du candidat :
Nous recherchons un.e stagiaire de six mois en fin d’études ou césure, en école d’ingénieurs ou master, avec une spécialisation en informatique et si possible en calcul scientifique/HPC.

Formation et compétences requises :
– Maîtrise du langage de programmation C++, connaissance de python
– Savoir adopter une méthodologie de développement collaboratif (Git,
tests unitaires…)
– Connaître les enjeux de la programmation HPC, notamment la
parallélisation des tâches (multithreading, multiprocessing).
– Notions de mathématiques appliquées (Transformées de Fourier,
Équations aux dérivées partielles…)
– Anglais courant (réunions en anglais)
– Une formation en physique serait un plus.

Adresse d’emploi :
98 bis boulevard Arago, 75014 Paris

Document attaché : 202510231604_Fiche de stage HPC Cosmologie.pdf

Nov
24
Mon
2025
From text analysis to influence graphs: approaches based on LLM, fuzzy logic, and Bayesian networks
Nov 24 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : (UR 4108 / FR CNRS 3638)
Durée : 6 mois
Contact : asma.dhaouadi@insa-rouen.fr
Date limite de publication : 2026-02-27

Contexte :
Facility Management (FM) encompasses all activities aimed at improving the efficiency of the working
environment (building management, energy consumption, employee comfort, safety, etc.). These practices
directly influence a company’s economic, environmental, and societal performance [1, 2]. However, the
relationships between these indicators are complex, often implicit, and rarely described in clear quantitative
terms. In addition, company executives need to identify these relationships and their influence on
the overall work environment.
The emergence of Large Language Models (LLMs) and qualitative reasoning approaches (qualitative
influence diagrams, fuzzy logic, Bayesian networks) paves the way for more detailed modeling of dependencies
between indicators, facilitating analysis and strategic decision-making.

Sujet :
Goals
• Automatic extraction of indicators from Quality of Life and Working Conditions (QLWC) documents
(scientific publications, reports, CSR documents, audits).
• Identification of qualitative relationships of influence between these indicators using LLM (e.g.,
“better air quality improves employee productivity”).
• Construction of an influence graph representing these relationships in the form of Qualitative Influence
Diagrams (QID) [3], using two different approaches :
• Fuzzy Logic [4]
• Bayesian Networks [5]
• Analysis of the graph to detect key indicators (those that strongly influence others) and their
influences linking FM practices to overall performance (economic, environmental, societal).
• Prototype decision-making tool for visualizing these graphs and simulating the impact of a change
in indicators.

Bibliography
1. AFNOR, “NF EN 15221-1 : Facility Management — Part 1 : Terms and Definitions,” French Standard,
Association Française de Normalisation, Dec. 2006. Withdrawn on Jul. 13, 2018.
2. Mouvement des Entreprises de France (MEDEF), “GUIDE RSE – Introduction à la Qualité de Vie
et des Conditions de Travail (QVCT),” Paris, France : MEDEF, 2023.
3. Renooij, S., & van der Gaag, L. C. (1998, May). Decision Making in Qualitative Influence Diagrams.
In FLAIRS (pp. 410-414).
4. Klir, G. J., & Yuan, B. (1995). Fuzzy Sets and Fuzzy Logic : Theory and Applications. Prentice
Hall.
5. Koller, D., & Friedman, N. (2009). Probabilistic Graphical Models : Principles and Techniques.
MIT Press.

Profil du candidat :
Expected Skills
• Good knowledge of Python 3 and interest in LLMs.
• Basics of Semantic Web (ontologies, RDF, OWL, SPARQL).
• Interest in fuzzy set theory and probabilistic reasoning.
• Strong motivation for collaboration and teamwork.

Formation et compétences requises :

Adresse d’emploi :
INSA Rouen Normandie
Equipe MIND – LITIS (UR 4108 / FR CNRS 3638)
Avenue de l’Université, BP 8, 76801 Saint-Étienne-du-Rouvray cedex, France

Document attaché : 202511201327_2026_stage.pdf

Nov
26
Wed
2025
Les collections d’éphémères vues par le prisme des annuaires du commerce de Paris
Nov 26 – Nov 27 all-day

Offre en lien avec l’Action/le Réseau : SaD-2HN/– — –

Laboratoire/Entreprise : Centre de Recherches Historiques (UMR 8558 : EHESS
Durée : 6 mois
Contact : bertrand.dumenieu@ehess.fr
Date limite de publication : 2025-11-26

Contexte :
Le musée Carnavalet – Histoire de Paris et les bibliothèques spécialisées de la ville de Paris conservent d’importantes collections d’éphémères. Il s’agit de documents de la vie quotidienne produits par des commerces, des associations ou des particuliers, qui deviennent très rapidement obsolètes : faire-parts, menus, cartes postales, affiches, prospectus, buvards publicitaires, dépliants touristiques, catalogues de vente, programmes de théâtre, images pieuses, sous-bocks, papiers de fruits, etc. La figure 1 présente un exemple d’affiches et de prospectus créés entre 1873 et 1888 et conservés au musée Carnavalet – Histoire de Paris. Chaque éphémère est indexé par des métadonnées récoltées par le musée, décrivant les acteurs de sa production (artiste dessinateur, imprimeur) et les techniques et matériaux mobilisés. Ces informations permettent quelques analyses explicatives sur la chaîne de création, d’impression et de diffusion de ces éphémères, mais qui restent limitées faute de connaissances suffisantes sur les réseaux professionnels des commerçants, artistes et artisans qui y contribuent.

Pour peu qu’ils exercent à Paris, ces professionnels ont de bonnes chances d’être recensés dans les annuaires commerciaux de la ville (voir figure 2). Ancêtres des « Pages Jaunes », ces ouvrages compilent, classent, datent et localisent les commerçants, artisans et notables parisiens au sein de longues listes nominatives. Celles de la majorité des annuaires édités entre 1797 et 1914 ont été extraites et transformées en une base de données géographique sérielle durant un précédent projet de recherche. Il est désormais possible d’exploiter les 22 millions d’entrées contenues de cette base pour tenter d’identifier les acteurs de la production d’éphémères et les lier aux collections du musée Carnavalet.

Sujet :
Le premier objectif de ce stage est donc de croiser les métadonnées des éphémères avec la base des annuaires du commerce parisien au XIXe siècle pour y retrouver les commerçants et artisans ayant concouru à la production des éphémères du musée. Le second objectif consistera à proposer une méthodologie d’analyse de ces métadonnées enrichies pour comprendre comment la création, l’impression et la diffusion des éphémères s’organisait, selon les commanditaires, les imprimeurs ou les types de supports. On pourra, par exemple, étudier l’éventuelle spécialisation des artistes, des imprimeurs, des rues ou des quartiers dans certains types de production ou bien les critères de choix des artistes ou des imprimeurs par les commanditaires : proximité spatiale, recommandation professionnelle, renommée, etc.
La première difficulté de ce travail réside dans la création et le peuplement du graphe de connaissances initial à partir des deux sources de données hétérogènes, incomplètes, bruitées, spatiales et temporelles que sont la base des annuaires et les métadonnées des éphémères. Il s’agira donc de proposer une ontologie, guidée par les hypothèses d’analyse des historiens de l’art concernant les réseaux professionnels potentiels des commerçants, artistes et imprimeurs impliqués dans la création des éphémères. Celle-ci devra ensuite être peuplée à partir des données disponibles, ce qui nécessitera un travail de désambiguïsation des commerçants, artistes et imprimeurs.
La seconde difficulté sera de proposer une méthodologie d’analyse spatio-temporelle permettant de comprendre le mode de constitution des réseaux professionnels à l’œuvre et leurs dynamiques au cours de la période étudiée.

Profil du candidat :
Master 2 ou équivalent en humanités numériques, sciences de l’information géographique ou informatique.
Le ou la candidat.e doit être un.e étudiant.e inscrit.e dans une université francilienne.

Formation et compétences requises :
– Analyse de données : connaissances pratiques et théoriques en analyse spatiale.
– Web de données : expérience en manipulation de graphes de connaissances, connaissance du liage de données, notions de conception d’ontologies.
– Sciences de l’information géographique : maîtrise opérationnelle de QGIS, connaissance de PostGIS, notions en scripting Python pour les SIG.
– Un goût pour l’histoire urbaine ou l’histoire de l’art est un atout.

Adresse d’emploi :
Centre de recherches historiques (UMR 8558 EHESS – CNRS), 54 boulevard Raspail, 75006 Paris

Document attaché : 202510211306_StageEphemeres&Annuaires.pdf

Dec
2
Tue
2025
Offre de stages en IA pour la physique fondamentale
Dec 2 – Dec 3 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire des 2 Infinis – Toulouse
Durée : Flexible
Contact : catherine.biscarat@l2it.in2p3.fr
Date limite de publication : 2025-12-02

Contexte :
Le Laboratoire des 2 Infinis – Toulouse (L2IT) est une unité mixte de recherche (UMR) du CNRS et de l’Université de Toulouse, jeune et dynamique, née en janvier 2020. Les objets d’étude des chercheurs et des ingénieurs du L2IT sont les deux infinis – l’infiniment petit et l’infiniment grand – et les relations entre les phénomènes qui régissent chacun d’entre eux. Le laboratoire est organisé en quatre équipes “Calcul, Analyse et Données”, “Physique Nucléaire”, “Physique des particules” et “Ondes Gravitationnelles”. Nous poursuivons nos recherches au sein de collaborations internationales. Nous sommes actuellement 32 membres, dont 15 permanents qui mettent en place les équipes de recherche.

La spécificité du L2IT est son accent sur les méthodes numériques de pointe (IA, calcul HPC, ingénierie logicielle, expertise CUDA) qui accompagnent les travaux d’analyse de données, de modélisation, simulation, et de développements théoriques. Le L2IT est implanté sur un campus dynamique qui regroupe facultés, écoles et laboratoires.

Sujet :
Trois sujets de stage sont actuellement proposés. Ils sont à l’intersection entre l’IA et nos domaines de recherche en physique fondamentale (physique des particules, cosmologie, ondes gravitationnelles). Pour les détails des sujets, veuillez vous référer à notre site internet : https://www.l2it.in2p3.fr/en/emplois-et-stages/internships-2026/

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
Laboratoire des 2 Infinis – Toulouse, Maison de la Recherche et de la Valorisation, 75 cours des Sciences, 31400 Toulouse, France

Dec
10
Wed
2025
Stage M2 – Objectivation des phases de sommeil sur la base de données cérébrales chez le babouin
Dec 10 all-day

Offre en lien avec l’Action/le Réseau : – — –/Innovation

Laboratoire/Entreprise : Institut de Science des Données de Montpellier / C
Durée : 5-6 mois
Contact : gino.frazzoli@umontpellier.fr
Date limite de publication : 2025-12-10

Contexte :
Le sommeil, bien que d’apparence triviale, constitue un état biologique complexe, difficile à quantifier sans recourir à une approche multimodale intégrant notamment l’enregistrement de l’activité cérébrale (EEG). Cette contrainte technologique rend l’étude du sommeil exigeante en conditions naturelles. Comprendre comment les animaux dorment dans leur environnement, en particulier dans un cadre social, représente ainsi un défi majeur. Chez les espèces grégaires comme le babouin, le sommeil ne se résume pas à un phénomène individuel : il s’organise dans un contexte collectif, influencé par les interactions sociales, la hiérarchie et la vigilance partagée. Le projet ERC COSLEEP (dirigé par Meg Crofoot, Max Planck Institute of Animal Behavior) s’attache à explorer cette dimension sociale du sommeil en conditions écologiques réelles, grâce à des suivis simultanés du comportement, de la position et de l’activité physiologique d’individus vivant à l’état sauvage. Le stage proposé s’inscrit dans cette collaboration entre le Centre d’Écologie Fonctionnelle et Évolutive (CEFE), l’Institut de Science des Données et le Max Planck Institute, et portera sur l’analyse de données de sommeil (activité cérébrale, musculaire, oculaire, accéléromètre et vidéo) afin de caractériser la structure et la qualité du sommeil dans un contexte social et écologique réel, et de développer un modèle prédictif fiable basé sur les signaux accélérométriques.

Sujet :
Le stage aura pour objectif de contribuer à la mise au point d’outils d’analyse automatisée du sommeil chez le babouin à partir de séries temporelles multimodales. Dans un premier temps, le ou la stagiaire évaluera la cohérence du scorage manuel du sommeil réalisé par plusieurs spécialistes à partir d’enregistrements physiologiques (EEG, EMG, EOG, accéléromètre, vidéo), afin de quantifier le niveau d’accord inter-experts et d’établir une base de données de référence. Dans un second temps, il s’agira de tester et d’adapter des modèles d’apprentissage automatique existants (tels que Somnotate ou USleep) pour obtenir un algorithme de scorage automatique capable de s’ajuster aux caractéristiques propres aux signaux enregistrés chez le babouin. Enfin, le stage visera à développer un modèle prédictif du sommeil à partir des signaux d’accéléromètre seuls, en s’appuyant sur les labels dérivés de l’activité cérébrale. Ce modèle permettra à terme d’estimer les phases et sous-états du sommeil à partir de capteurs portés sur collier, ouvrant la voie à une analyse non invasive du sommeil en milieu naturel.

Profil du candidat :
Le ou la candidat(e) devra posséder une formation en analyse de données expérimentales, data science, ou domaine connexe avec une appétence pour les neurosciences, sciences cognitives, bio-informatique, ou l’écophysiologie. Une bonne familiarité avec le traitement de signaux temporels, des compétences en programmation (Python, Matlab ou R) et des compétences en méthodes d’apprentissage automatique (réseaux de neurones, classification supervisée et modèles de deep learning) seraient un atout majeur.
Le ou la stagiaire devra faire preuve de rigueur, d’autonomie et de curiosité scientifique, ainsi que d’un goût marqué pour l’analyse de données et le travail interdisciplinaire, à l’interface entre neurosciences, écologie comportementale et science des données. Une aisance en anglais scientifique (lecture et échanges techniques) sera également souhaitée.

Formation et compétences requises :
• Maîtrise de Python (NumPy, Pandas, Scikit-learn, PyTorch). Des notions en Matlab sont appréciées.
• Connaissances en statistiques, apprentissage automatique et deep learning.
• Intérêt pour les méthodes utilisées dans les modèles de scorage automatique du sommeil :
o USleep : réseau profond combinant CNN inspiré de U-net pour la classification EEG/EMG. https://www.nature.com/articles/s41746-021-00440-5
o Somnotate : approche probabiliste (HMM + LDA) intégrant la dynamique temporelle du sommeil. https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1011793
• Intérêt à développer des compétences en analyse de signaux physiologiques (EEG, EMG, EOG, accélérométrie).
• Notions en validation de modèles et évaluation inter-experts (Kappa, ICC, …).
• Rigueur, autonomie, et intérêt pour les approches interdisciplinaires (neurosciences, écologie, data science).
• Bon niveau d’anglais scientifique (lecture et communication).

Adresse d’emploi :
Case courrier, 13004 Pl. Eugène Bataillon Bât. 4, 34095 Montpellier Cedex 5

Document attaché : 202511030916_Analyse_donnees_physiologiques_babouins_CEFE_ISDM_Montpellier.pdf

Dec
15
Mon
2025
Approches data-driven pour la détection d’interfaces géologiques
Dec 15 – Dec 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : BRGM
Durée : 6 mois
Contact : c.gracianne@brgm.fr
Date limite de publication : 2025-12-15

Contexte :
Rejoindre le Bureau de Recherches Géologiques et Minières (BRGM), c’est intégrer l’établissement public français de référence dans les sciences de la Terre, qui rassemble 1000 experts passionnés dans 29 implantations en France métropolitaine et en Outre-mer. Le BRGM œuvre à la connaissance du sous-sol pour répondre aux grands défis environnementaux, à travers des projets scientifiques innovants et à fort enjeu sociétal.
Dans le cadre d’un programme de recherche dédié à l’aléa sismique à Mayotte, l’objectif est de détecter et cartographier les interfaces géologiques responsables de l’effet de site, phénomène amplifiant localement les ondes sismiques. Après une phase exploratoire sur trois sites pilotes, le projet vise désormais l’automatisation de cette détection à l’échelle de l’île à partir de données électromagnétiques aéroportées (AEM).

Sujet :
Dans le contexte volcanique et sismique de Mayotte, la présence d’interfaces géologiques marquant des contrastes lithologiques importants (passage de couches dures à meubles) joue un rôle majeur dans l’amplification locale des ondes sismiques. Identifier ces interfaces à grande échelle est essentiel pour la cartographie de l’aléa sismique. Le BRGM a conduit une première phase de détection manuelle sur trois zones test via l’analyse de données AEM (résistivités), complétée par une phase d’automatisation sur l’ensemble de l’île.
Les premiers tests sur des modèles supervisés se sont révélés insuffisants, notamment pour prédire les interfaces peu représentées. Une approche alternative consistant à reformuler le problème comme une tâche de segmentation d’image avec un réseau U-Net 2D a permis de mieux exploiter la continuité spatiale des profils AEM. Cependant, la validation de ce modèle a montré des limites,avec une concentration des erreurs dans certaines profondeurs critiques (5-10 m et 20-40 m), rendant les performances trop optimistes.
L’objectif du stage est de continuer ces développements en comparant plusieurs méthodologies avancées pour la détection automatisée de ces interfaces géologiques à partir des profils AEM. Les approches testées incluront :
– des modèles classiques améliorés (RF, CNN) ;
– des approches topologiques (TDA) pour quantifier l’incertitude structurelle ;
– des approches guidées par la physique (PINNs) intégrant des contraintes géologiques
Le ou la stagiaire devra construire des baselines reproductibles, définir un protocole d’évaluation robuste, comparer les performances des modèles sur l’ensemble de l’île, et surtout évaluer leur capacité à corriger les erreurs récurrentes identifiées sur les zones critiques (Dembeni, Longoni). Une attention particulière sera portée à la localisation des faux positifs/négatifs en profondeur. L’analyse des résultats par cartographie d’erreurs enrichira les réflexions sur la généralisation des approches IA en géosciences.

Profil du candidat :
Vous êtes autonome, curieux·se et rigoureux·se, avec une capacité à structurer et documenter vos analyses. Vous êtes à l’aise pour explorer, prétraiter, visualiser et interpréter des jeux de données complexes. Vous accordez une attention particulière à la robustesse méthodologique et êtes capable d’évoluer dans un environnement de recherche.

Doté·e d’un bon relationnel, vous savez collaborer au sein d’une équipe pluridisciplinaire, en lien étroit avec des spécialistes du domaine (géologues, géophysiciens, data scientists). Vous faites preuve de rigueur scientifique, d’esprit critique et de qualités de communication, à l’écrit comme à l’oral.

Formation et compétences requises :
Formation de niveau Bac+5 : Master 2 ou dernière année d’école d’ingénieur, avec spécialisation en data science, intelligence artificielle, mathématiques appliquées ou géosciences numériques.

Solides bases en apprentissage automatique : régression, classification, réseaux de neurones.

Maîtrise du langage Python et des bibliothèques standards en data science : scikit-learn, PyTorch ou TensorFlow, NumPy, Pandas, Matplotlib.

Une première expérience avec des architectures convolutives (CNN) ou de segmentation (U-Net) est un atout.

Une familiarité avec les problématiques de traitement de données géospatiales ou géophysiques est appréciée.

Des connaissances en Topological Data Analysis (TDA) ou en Physics-Informed Neural Networks (PINNs) seraient un plus, mais peuvent être développées durant le stage.

Intérêt pour les notions de validation rigoureuse, d’incertitude, de reproductibilité et de qualité des données.

Adresse d’emploi :
3 avenue Claude Guillemin, 45000 Orléans

Document attaché : 202511060727_Stage_BRGM_2026.pdf

Internship: Representation of physical quantities on the Semantic Web
Dec 15 – Dec 16 all-day

Offre en lien avec l’Action/le Réseau : RECAST/– — –

Laboratoire/Entreprise : LIMOS, UMR 6158 / Mines Saint-Étienne
Durée : 4-6 mois
Contact : maxime.lefrancois@emse.fr
Date limite de publication : 2025-12-15

Contexte :
Physical quantities form an important part of what is represented in scientific data, medical data, industry data, open data, and to some extent, various private data.

Whether it is distances, speeds, payloads in transportation, concentrations, masses, moles in chemistry, powers, intensities, voltages in the energy sector, dimensions of furniture, weights, heights of people, durations, and many others in health, there is a need to represent physical quantities, to store them, to process them, and to exchange them between information systems, potentially on a global scale, often on the Internet and via the Web.

Sujet :
In this internship, we seek to precisely define a way to unambiguously represent physical quantities for the Web of Data. More precisely, we will study the proposals made to encode physical quantities in the standard data model of the Semantic Web, RDF. We will be particularly interested in the use of a data type dedicated to this encoding, probably adapted from the proposal of Lefrançois & Zimmermann (2018) based on the UCUM standard.

Having established a rigorous definition of the data type (possibly its variants, if relevant), we will focus on implementing a module that can read/write and process physical quantities and their operations within the RDF data manipulation APIs, for the management, querying and reasoning with knowledge graphs containing physical quantities.

The ambition is that, on the one hand, the specification will become in a few years a de facto standard, before perhaps becoming a de jure standard; and that, on the other hand, the implementation will be the reference allowing to compare the compliance levels of other future implementations.

This study should lead to the publication of a scientific paper in a high impact scientific journal.

References
Maxime Lefrançois and Antoine Zimmermann (2018). The Unified Code for Units of Measure in RDF: cdt:ucum and other UCUM Datatypes. In The Semantic Web: ESWC 2018 Satellite Events – ESWC 2018 Satellite Events, Heraklion, Crete, Greece, June 3-7, 2018, Revised Selected Papers, volume 11155 of the Lecture Notes in Computer Science, pp196–201, Springer.
Gunther Shadow and Clement J. McDonald. The Unified Code for Units of Measure. Technical report, Regenstrief Institute, Inc, November 21 2017.

Profil du candidat :
Master 2 students in computer science

To apply, please submit by email or in an online file repository your CV, motivation letter, university transcripts, and possibly letters of recommendation. The motivation letter must explain why you are interested in this topic and why you are qualified to work on this topic.

Formation et compétences requises :
Equivalent of a M2 level in CS, with knowledge of Semantic Web technologies. Also, the candidate must have either very good programming skills in Java, or very good aptitude in formal and abstract thinking.

Adresse d’emploi :
Mines Saint-Étienne, Institut Henri Fayol, 29 rue Pierre et Dominique Ponchardier, 42100 Saint-Étienne, France

Dec
27
Sat
2025
Construction de graphes de connaissances historiques à l’aide d’algorithmes de graphes, LLMs et RAG
Dec 27 – Dec 28 all-day

Offre en lien avec l’Action/le Réseau : – — –/Innovation

Laboratoire/Entreprise : LIP6 – Sorbonne Université
Durée : 6 mois
Contact : camelia.constantin@lip6.fr
Date limite de publication : 2025-12-27

Contexte :
Nos recherches portent sur les bases prosopographiques ayant pour objet la période médiévale. La prosopographie est une méthode des sciences sociales (sociologie, histoire) dans laquelle on cherche à analyser un groupe à partir d’une étude systématique des itinéraires singuliers des individus qui le composent. Pour cela les chercheurs collectent tous les faits (factoïdes) possibles sur chaque individu. En histoire médiévale, ces données sont rares, discontinues, incertaines et souvent d’une qualité médiocre. En effet, les experts de ces disciplines gèrent la qualité et l’incertitude dans le temps et l’espace. Ainsi, les personnes sont désignées par plusieurs noms, les lieux changent de noms et de frontières avec le temps ou selon l’auteur et un parcours de diplomation peut changer en fonction de l’époque, du lieu ou de la classe sociale de la personne. En raison de cette complexité, de nombreuses règles restent opaques pour les historiens médiévistes. En organisant ces données sous forme de graphe de connaissances, nous pouvons représenter des concepts, des personnes, des lieux ou des objets sous forme des nœuds et des interactions entre ceux-ci, comme telles que des affiliations ou des localisations comme arêtes avec des propriétés. Cela permet une organisation sémantique des données qui aide à mieux comprendre les contextes et les relations complexes entre les entités mentionnées dans les textes et de visualiser clairement l’interconnexion entre les différents éléments d’un ensemble de données.
La construction de graphes de connaissances à partir de sources de données ambiguës soulève plusieurs difficultés majeures liées à la nature imparfaite, hétérogène et souvent imprécise des textes ou bases d’origine. Les principales sources de complexité résident dans l’ambiguïté des entités (lorsqu’un même nom peut désigner plusieurs objets distincts ou, inversement, lorsqu’une entité apparaît sous des formes lexicales variées (abréviations, translittérations, synonymes). S’ajoutent à cela l’imprécision ou l’incomplétude des informations (par exemple, des dates approximatives ou des localisations vagues), qui favorisent la duplication d’entités lors de l’intégration : plusieurs nœuds représentant en réalité la même entité peuvent être créés. Les textes peuvent également contenir des relations implicites difficiles à extraire automatiquement, ou des contradictions entre sources multiples.

Parmi ces problèmes, certains peuvent être atténués par l’usage de modèles de langage de grande taille (LLMs), capables d’intégrer des indices sémantiques complexes et de désambiguïser les entités en tenant compte du contexte global. Les LLMs améliorent la reconnaissance des relations implicites et la cohérence sémantique entre textes hétérogènes. Cependant, plusieurs défis demeurent : les modèles ne résolvent pas les ambiguïtés lorsque deux entités très similaires apparaissent dans le texte sans marqueurs de distinction, ni les contradictions entre sources (le LLM peut les reconnaître mais ne garantit pas de choisir la bonne version, ou peut donner une confiance excessive à l’une sans justification). Ils n’éliminent pas non plus les duplications induites par des informations incomplètes ou imprécises, et peuvent introduire de nouveaux biais, notamment par hallucination d’entités ou surestimation de leur confiance. Dans des domaines historiques, le LLM peut manquer de données de formation spécifiques, ce qui réduit sa performance. Ces limites exigent l’intégration de méthodes complémentaires, telles que la reconnaissance d’entités nommées (NER), qui impose un typage explicite et stable des entités (personne, organisation, lieu, date, etc.), en permettant ainsi de filtrer les entités erronées ou inventées. En s’appuyant sur des lexiques, ontologies ou dictionnaires de référence, elle facilite la normalisation et l’alignement des entités, limitant ainsi la création d’alias ou de doublons. Des méthodes complémentaires, comme entity linking ou l’utilisation de règles symboliques peuvent aider à l’alignement des entités obtenues par des LLMs.

L’ajout de réseaux de neurones de graphes (GNN) améliore la désambiguïsation d’entités lorsque le contexte textuel seul est insuffisant, en s’appuyant sur les voisins et les motifs relationnels pour identifier la bonne correspondance, en exploitant la structure relationnelle du graphe. Ils renforcent également la détection de doublons et la fusion d’entités similaires en apprenant des représentations qui intègrent à la fois les attributs et les connexions locales.

Sujet :
Afin de pouvoir améliorer le liage d’entités, il est important d’avoir le maximum d’information pour chaque entité, et notamment ses liens avec les autres entités. L’objectif de ce stage est la mise en œuvre d’une architecture RAG-GNN intégrée, destinée à la construction, à la détection des duplicats et à la fusion d’entités d’un graphe de connaissances construit à partir de données prosopographiques Studium ambigües. Ces données existent sous forme de fiches où les mêmes individus ou lieux apparaissent plusieurs fois avec une description très différente suivant la source (donc des propriétés et relations différentes) voire des noms parfois très différents. Cette démarche vise à améliorer la qualité et l’utilité du graphe en découvrant et en intégrant des informations qui ne sont pas explicitement présentes mais qui peuvent être inférées à partir des relations et des attributs existants. D’autres jeux de données comme KnowledgeNet pourront être également utilisés.
Méthodologie : La méthodologie combine des modèles de langage préentraînés, recherche contextuelle, et apprentissage de représentations de graphes pour la construction et la consolidation de graphes de connaissances à partir de données historiques ambiguës. Dans une première étape, un modèle de langage de grande taille (LLM) est utilisé pour extraire automatiquement des entités, relations et attributs (dates, lieux, personnes) à partir des textes. Cette extraction est renforcée par des méthodes de reconnaissance d’entités nommées (NER), assurant une détection typée et une segmentation fiable des mentions, conformément aux principes décrits dans [1]. Le graphe ainsi obtenu sera stocké dans une base de données graphe (Neo4j) avec traçabilité des chunks sources et va constituer une base brute soumise à un processus d’enrichissement et de validation des liens de duplication( sameAs)). Un module de Retrieval-Augmented Generation (RAG) sera utilisé dans une première phase pour une décision sameAs ou notSame pour chaque paire d’entités candidate, accompagnée de preuves textuelles. Le LLM reçoit le contexte enrichi (entité A, entité B, leurs propriétés, leurs relations adjacentes dans le graphe et leurs chunks sources) pour prendre une décision de fusion, en fournisant la provenance factuelle pour la décision de résolution d’entité [2]. Les Graph Neural Networks (GNNs) sont ensuite utilisés pour exploiter la structure relationnelle du graphe et apprendre des représentations topologiques capables d’identifier les clusters d’entités équivalentes [3]. Le GNN sélectionne et connecte des sous-graphes d’un graphe de connaissances qui sont ensuite convertis en entrées textuelles pour un LLM [4], permettant la mise en place d’une boucle de rétroaction LLM–GNN afin d’affiner progressivement les décisions de fusion : les inférences structurelles issues du GNN guident le LLM dans ses réévaluations contextuelles, tandis que les jugements linguistiques du LLM enrichissent les représentations structurelles apprises par le GNN.

Profil du candidat :
Etudiant en Master 2 ou en dernière année d’école d’ingénieur.

Formation et compétences requises :
Connaissances en python et en machine learning.

Adresse d’emploi :
LIP6 (Sorbonne Université),
Équipe Bases de Données http://www-bd.lip6.fr/

Document attaché : 202511272002_sujetStageKG_2026.pdf

Dec
30
Tue
2025
Concevoir une base de connaissance permettant d’aligner différentes méthodes d’innovation
Dec 30 – Dec 31 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Centre Génie Industriel, IMT Mines Albi
Durée : 6 mois
Contact : myriam.lamolle@mines-albi.fr
Date limite de publication : 2025-12-30

Contexte :
Ce stage s’inscrit dans le projet TABGHA qui se veut un outil de génération démultiplié de concepts hautement valorisables afin de promouvoir l’innovation avec l’aide du CGI (Centre de Génie Industriel) d’IMT Mines Albi (cgi.mines-albi.fr) et le LIASD, Université Paris 8.

Sujet :
Face à la méconnaissance des cultures innovations susceptibles de créer des ressources et le peu d’étude sur la valorisation économique des recherches (spin off, licence, prestation), le transfert de technologie devient crucial.
Pour cela, il faut, à partir d’une technologie générique (souvent sur étagère), multiplier les cas applicatifs (marchés d’atterrissage) pour accroitre les chances de valorisation (et aussi poursuivre les développements). À ce jour, de nombreuses méthodes existent pour générer ces différents cas applicatifs : design thinking, analyse fonctionnelle… Aucune d’entre elles ne faisant l’unanimité, le projet vise à développer une plateforme open-source en « Knowledge As A Service » (KaaS) comme écosystème digital fondé sur des composants logiciels qui se combinent pour collaborer de façon à permettre une évolution graduelle du système au travers de nouvelles contributions et de nouveaux composants fournis par la communauté.
L’objectif sous-jacent est de découvrir dans la base de connaissance constituée des connaissances cachées et de déterminer des analogies afin d’aider des décideurs à trouver de nouveaux domaines d’application de leur concept/produit ou à créer de nouveaux concept/produit.
Vous contribuerez à lever un des verrous scientifiques du projet : concevoir un ou des algorithmes d’alignement de méthodes de design thinking fondés sur l’analyse structurelle et sémantique de graphes de connaissances (ou ontologie modulaire).
Objectifs concrets :
1. Modéliser sous forme d’une ontologie les méthodes C-K, Vianeo (voire TriZ1) ;
2. En suivant une méthode scientifique, concevoir et implémenter des algorithmes permettant d’aligner semi-automatiquement les méthodes citées : les classes, les relations entre ces classes, etc. en explicitant les règles de transformation. Peupler la base de connaissance et évaluer les algorithmes sur le mini-cas d’étude réaliste ;
3. Créer les IHM pour offrir les services :
a) de choix de la méthode par laquelle le projet d’innovation sera développé ;
b) ou d’hybridation de méthodes pour une approche multi-points de vue ;
4. Rédiger un article de conférence internationale avec l’équipe d’encadrement.

Profil du candidat :
Bac+5 (Master 2 ou dernière année d’école d’ingénieur) en Informatique, Mathématiques Appliquées ou domaine connexe

Formation et compétences requises :
Compétences techniques indispensables :
• Maîtrise des concepts de l’IA neuro-symbolique ;
• Capaciter à conceptualiser des méthodes complexes
• Maîtrise d’outils et méthodes d’analyse de graphes
• Excellente compréhension écrite, bonne expression (lecture/rédaction d’articles) et bonne compréhension orale en anglais
Qualités personnelles attendues
• Capacité à proposer des idées algorithmiques dès l’entretien
• Être moteur dans les échanges scientifiques et la validation d’idées
• Goût pour la formalisation mathématique et l’expérimentation méthodique
• Appréciation pour la recherche bibliographique
Un plus :
• Expérience en recherche (stage labo, projet R&D…)
• Connaissance des ontologies et des logiques de description
• Intérêt pour les systèmes à base de raisonnement

Adresse d’emploi :
IMT Mines Albi (Centre de génie industriel), Albi (81)

Document attaché : 202511171603_offreStageM2_sujet1_2026.pdf

Dec
31
Wed
2025
Détection de phénomènes de diffusion dans les réseaux sociaux
Dec 31 2025 – Jan 1 2026 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Université Bourgogne Europe
Durée : 5 à 6 mois
Contact : annabelle.gillet@u-bourgogne.fr
Date limite de publication : 2025-12-31

Contexte :
Dans les réseaux sociaux, la manipulation de l’information est une problématique pouvant avoir des conséquences néfastes importantes. Les stratégies de diffusion d’informations manipulées sont complexes, et peuvent avoir recours à la mise en oeuvre d’armées de robots ayant différents rôles dans le réseau. Par exemple, un groupe de robots peut avoir pour tâche de spammer certains messages ou mots clés afin de manipuler les tendances et de gagner une visibilité importante en peu de temps, d’autres robots peuvent avoir un profil évolué ainsi qu’une activité quotidienne, leur permettant de passer pour des utilisateurs légitimes et de donner plus de poids aux messages qu’ils pourraient diffuser dans certaines communautés. Toutefois, la détection de ces armées de robots est complexe, et l’évolution rapide de leur comportement et de leur organisation restreint les types d’algorithmes utilisables.

Le projet ANR Beelzebot est un projet interdisciplinaire regroupant des chercheurs en informatique, en sciences de la communication et du langage. Il a pour objectif de définir des mécanismes pour détecter les armées de robots sur Twitter en se basant sur des méthodes non-supervisées, ainsi qu’à caractériser les activités de ces armées.

Sujet :
L’objectif du stage, dans le cadre du projet ANR Beelzebot, est de détecter des phénomènes de diffusion sur Twitter et de les caractériser. Pour cela, une approche prometteuse consiste à utiliser des algorithmes s’appuyant sur des tenseurs afin de créer un résumé des données pouvant être exploité pour détecter des zones denses sur le réseau qui peuvent correspondre à des phénomènes de diffusion. Un des avantages des tenseurs est leur aspect multi-dimensionnel, permettant notamment d’intégrer nativement une dimension temporelle aux analyses, contrairement aux approches basées sur les graphes.

Un autre objectif du stage est d’étudier plus en détail les phénomènes de diffusion détectés, en utilisant des analyses complémentaires visant à les caractériser. En effet, certains phénomènes de diffusion sont naturels et résultent de l’utilisation standard du réseau, tandis que d’autres proviennent d’actions de manipulation tentant de profiter des mécanismes du réseau pour diffuser des idées ou perturber son fonctionnement normal. Il s’agit plus particulièrement d’étudier leurs impacts sur les structures communautaires, les utilisateurs frontières, les utilisateurs influents, l’émergence de hashtags, etc.

En plus des jeux de données publics, plusieurs jeux de données collectés sur Twitter sont à disposition, comme par exemple les discussions autour de l’élection présidentielle française de 2022 ou le COVID, contenant de plusieurs millions à plusieurs milliards de tweets. L’environnement matériel des serveurs de stockage et de traitement est opérationnel au Data Center Régional de l’Université Bourgogne Europe.

Une poursuite en thèse à la suite du stage est envisageable.

Profil du candidat :
– étudiant en Master 2 avec spécialité informatique ;
– curiosité et rigueur scientifique ;
– compétences en gestion de données ;
– solides connaissances et compétences en algorithmique et développement logiciel.

Formation et compétences requises :

Adresse d’emploi :
Université Bourgogne Europe, Dijon

Document attaché : 202511211319_StageBeelzebot2026.pdf

Internship Subject M2 – Integrating Earth observation data and deep learning methods to monitor food systems
Dec 31 2025 – Jan 1 2026 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CIRAD – UMR TETIS
Durée : 6 mois
Contact : roberto.interdonato@cirad.fr
Date limite de publication : 2025-12-31

Contexte :
Food systems are highly interconnected between countries on a global scale, as shown by recent disruptions such as the war in Ukraine and the global pandemic. Food flows are vulnerable to shocks, and these disruptions influence food prices, which in turn affect food consumption patterns. This has had a significant impact on people’s diets, particularly in underdeveloped countries where food security is already fragile. However, scientists and policy-makers lack the data and tools to identify weak points in food flows and build food systems resilient to shocks and disruptions. While considerable progress has been made using Earth Observation data to map crop locations and agricultural productivity (e.g. crop yields), little attention has been paid to the intermediate stages of the workflow – distribution, processing and markets – which are key to understanding and modeling how food moves from production to consumption. Additionally, numerous geospatial datasets, such as OpenStreetMap, are publicly accessible and provide valuable information on land use and land cover.

Thanks to advances in artificial intelligence and its application to Earth Observation data, continuously collected satellite images on a global scale, combined with meteorological data, make it possible to monitor food systems in real time. Deep learning models, capable of capturing complex, non-linear relationships, and multimodal algorithms integrating data from a variety of sources, are opening up new perspectives in this field. This internship proposes to exploit multi-temporal and multi-resolution Earth observation data, by combining them with learning models, to monitor food systems, estimate agricultural yields and analyze their links with market prices.

This internship focuses on developing machine learning approaches to analyze food flows in Rwanda, in relation to food security situation in the country, by using comprehensive market data and geospatial information. Food flows often deviate from optimal distribution patterns due to infrastructure constraints, market dynamics, and socio-economic factors. For example, a certain product (e.g., potatoes) grown in northern regions may follow suboptimal routes to reach southern markets. By modeling both ideal and actual food flows, we can identify bottlenecks and opportunities to improve food security.

Sujet :
Missions :

The project aims to understand the relationship between food production locations, distribution networks, and market accessibility to inform food security policies. More specifically, the final task is to build a machine learning model able to predict the probability that a certain item is sold in a specific market, based on production and distribution data.

The project leverages two primary datasets:

· Public Market Dataset: 1.2 million items across 70 markets covering 10 types of food items.

· CGIAR/IITA Survey Database: A dataset collected by the IITA (International Institute of Tropical Agriculture) including monthly data from 7,000 vendors across 67 markets in all districts of Rwanda, including food quality assessments and detailed market information.

These datasets will be complemented by geospatial data including OpenStreetMap (OSM) infrastructure data, land cover information, and Earth observation data (NDVI and other spectral indices).

The main tasks to address during the internship will be:

1. Database Integration and Market Mapping

a. Merge the public market dataset with CGIAR/IITA survey data to create a comprehensive market database

b. Map which specific food items are sold in which markets

2. Geospatial Data Integration

a. Incorporate OpenStreetMap data to understand transportation networks and market accessibility

b. Integrate land cover and agricultural production data to identify food production zones

c. Process Earth observation data (NDVI, meteorological data) to assess agricultural productivity

d. Map the complete food system from production areas to consumption markets

3. Machine Learning Model Development

a. Develop predictive models to estimate the probability that specific food items will be available in particular markets

b. Compare actual food flows with modeled optimal flows to identify inefficiencies

c. Test developed models against baseline methodologies and state-of-the-art approaches

4. Writing of the internship report (in English) to capitalize on the work carried out with a view to a possible scientific publication. If possible, also release associate code and data.

Profil du candidat :
Skills required :

– Programming skills

– Interest in data analysis

– Scientific rigor

– Curiosity and open-mindedness

– Analytical, writing and summarizing skills

How to apply :

Send CV, cover letter and M1 (or 4th year) transcript to :

simon.madec@cirad.fr , roberto.interdonato@cirad.fr

specifying as e-mail subject “CANDIDATURE STAGE DIGITAG”.

Additional Information :

– Duration of 6 months, starting February 2025

– Remuneration: CIRAD salary scale, ~600 euros/month

– The internship will take place at CIRAD, in the UMR TETIS (Territory, Environment,

Remote Sensing and Spatial Information), located at the Maison de la

Télédétection in Montpellier.

– The internship will be carried out in collaboration with Assistant Professor

Claudia Paris and Yue Dou, currently working at the ITC Faculty of Geographic Information

Science and Earth Observation, University of Twente, Netherlands.

Formation et compétences requises :
Skills required :

– Programming skills

– Interest in data analysis

– Scientific rigor

– Curiosity and open-mindedness

– Analytical, writing and summarizing skills

How to apply :

Send CV, cover letter and M1 (or 4th year) transcript to :

simon.madec@cirad.fr , roberto.interdonato@cirad.fr

specifying as e-mail subject “CANDIDATURE STAGE DIGITAG”.

Additional Information :

– Duration of 6 months, starting February 2025

– Remuneration: CIRAD salary scale, ~600 euros/month

– The internship will take place at CIRAD, in the UMR TETIS (Territory, Environment,

Remote Sensing and Spatial Information), located at the Maison de la

Télédétection in Montpellier.

– The internship will be carried out in collaboration with Assistant Professor

Claudia Paris and Yue Dou, currently working at the ITC Faculty of Geographic Information

Science and Earth Observation, University of Twente, Netherlands.

Adresse d’emploi :
500 rue Jean François Breton, 34090, Montpellier

Stage IA en cancérologie avec la possibilité de poursuivre en thèse
Dec 31 2025 – Jan 1 2026 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Sesstim, Aix Marseille Université
Durée : 6 Mois
Contact : raquel.urena@univ-amu.fr
Date limite de publication : 2025-12-31

Contexte :
Ce stage s’inscrit dans un projet de recherche à l’interface de l’intelligence artificielle et de la santé, mené au sein d’une équipe multidisciplinaire réunissant informaticiens, médecins, biostatisticiens et chercheurs en santé publique.

L’objectif global est de modéliser et d’analyser les parcours de soins longitudinaux des patients à partir de données massives issues des bases médico-administratives (SNDS).

Ces travaux permettront d’identifier des profils de patients, des ruptures de parcours et des facteurs de réhospitalisation, afin d’améliorer la compréhension et la personnalisation de la prise en charge.
Le stage se déroulera au sein de l’équipe CaLIPSo / SESSTIM (Aix–Marseille Université), sur le IPC à Marseille, dans un environnement stimulant à l’interface de l’IA, de la santé et des sciences sociales.
Le stagiaire sera encadré par Raquel URENA, maître de conférences en informatique especialiste en IA et santé, et travaillera en interaction directe avec des chercheurs en IA, des épidémiologistes et des cliniciens de de l’Institut Paoli-Calmettes, sur des données massives réelles à fort impact sociétal.

Sujet :
Objectifs du stage
Le stagiaire participera à la conception et au développement de modèles innovants de modélisation automatique des trajectoires de soins en utilisant des techniques avancées de representation learning et de Large Language Models (LLMs) appliquées aux données de santé.
Les principales missions incluent :
• Extraction et structuration de trajectoires temporelles à partir de données massives (diagnostics, actes, hospitalisations, prescriptions).
• Développement de représentations patient à l’aide de modèles de deep learning.
• Comparaison et évaluation de différentes approches de representation learning.
• Identification de profils de soins, visualisation et interprétation des trajectoires representations.

Profil du candidat :
Compétences requises
• Solides connaissances en machine learning, representation learning et modélisation de séries temporelles.
• Maîtrise de Python (Pandas, NumPy, Scikit-learn, PyTorch/TensorFlow) et des bases de données SQL.
• Langue française indispensable, niveau avancé en anglais (oral et écrit).
• Excellentes capacités de rédaction scientifique et de communication.
• Curiosité, rigueur scientifique, autonomie et goût pour le travail interdisciplinaire.
Environnement de travail

Formation et compétences requises :
M2 Informatique/ IA/ Mathémathiquées appliqués

Adresse d’emploi :
232 Bd de Sainte-Marguerite, 13009 Marseille

Jan
10
Sat
2026
An NLP framework to automatically evaluate the adequacy and relevance of assessment items
Jan 10 – Jan 11 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : SAMOVAR, Télécom SudParis, IP Paris
Durée : 6 Months
Contact : luca.benedetto@telecom-sudparis.eu
Date limite de publication : 2026-01-10

Contexte :

Sujet :
This project proposes developing an NLP framework to automatically evaluate the adequacy and relevance of assessment items in relation to their associated learning content. While existing research in Question Difficulty Estimation from Text (QDET) has focused primarily on analyzing exam items in isolation, this work addresses a critical gap by evaluating questions within the context of course lectures and learning paths. The framework will employ a combination of traditional machine learning, Information Retrieval techniques, semantic embeddings, and Large Language Models to assess newly created exam questions for validity, relevance, and difficulty.

Profil du candidat :
Previous experience with Python and Machine Learning is required.

Formation et compétences requises :

Adresse d’emploi :
19 place Marguerite Perey, 91120 Palaiseau France

ou

9 rue Charles Fourier, 91011 Evry-Courcouronnes France

Document attaché : 202512031306_2025_11___Proposal_Stage_M2.pdf

Computer Vision appliquée aux sports de combat
Jan 10 – Jan 11 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : GREYC / ORION SportTech
Durée : 4 à 6 mois
Contact : francois.rioult@unicaen.fr
Date limite de publication : 2026-01-10

Contexte :
ORION SporTech développe des solutions logicielles basées sur la vidéo et l’intelligence artificielle pour le monde du sport. Au-delà de la performance, ORION SporTech conçoit des solutions pour la Fan Expérience : nos logiciels enrichissent les vidéos avec des effets visuels dynamiques et des contenus interactifs destinés à engager les supporters et valoriser les partenaires.

ORION SporTech est incubée chez Normandie Incubation, au cœur de
l’écosystème startup normand.

Le stage est co-encadré par le laboratoire GREYC – Unicaen – Ensicaen – CNRS.

Sujet :
Le stage concerne la détection automatique des coups portés dans des vidéos de combats, captées via flux broadcast monoculaire (caméra unique, plan fixe ou mobile). L’objectif est de développer un pipeline de vision par ordinateur capable de :
– Détecter les coups portés
– Identifier la latéralité
– Estimer l’impact
Le candidat pourrait montrer des dispositions à maîtriser les techniques
d’estimation de pose et de classification de séquences.

Profil du candidat :
– Formation en informatique, vision par ordinateur, IA ou traitement d’image
– Connaissances en deep learning appliqué à la vidéo
– Intérêt pour le sport, idéalement les sports de combat
– Autonomie, rigueur, esprit de recherche

Formation et compétences requises :
M2 / ingénieur informatique IA – Data – Computer vision

Adresse d’emploi :
17 rue Claude Bloch à Caen

Jan
11
Sun
2026
Offre de stage M2 Recherche chez BaaS.sh
Jan 11 – Jan 12 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : BaaS.sh en collaboration avec l’IRIT (Toulouse)
Durée : 5 à 6 mois
Contact : mokadem@irit.fr
Date limite de publication : 2026-01-11

Contexte :
BaaS.sh est une startup deeptech qui conçoit une blockchain de nouvelle génération : rapide à déployer, simple à utiliser → pensée pour les devs, optimisée pour la perf.

Sujet :
Rejoins BaaS.sh, en collaboration avec le IRIT, pour contribuer à la mise en place et à l’optimisation de notre infrastructure blockchain. Tu travailleras sur des sujets concrets, techniques et à fort impact :
● Déployer, superviser et automatiser des architectures complexes.
● Concevoir des pipelines robustes (CI/CD, provisioning, monitoring, logging).
● Mener des analyses comparatives de blockchains concurrentes.
● Side projects : serveur MPC, module n8n, plugin VSCode…
Un stage exigeant, encadré, au coeur d’un projet deeptech ambitieux.
Tu évolueras dans un environnement stimulant, entre infrastructure, performance, et blockchain de nouvelle génération.
Si compétences exceptionnelles :
tu pourras également contribuer à des sujets plus avancés : orchestration distribuée, sécurité réseau, scaling dynamique.

Profil du candidat :
Master 2

Formation et compétences requises :
Expérience concrète avec Docker Swarm ou Kubernetes.
CI/CD, base d’un delivery efficace et fiable.
Bonnes notions en observabilité (Grafana, Prometheus…) et en gestion de logs.
Docker, Git et les outils d’automatisation n’ont pas de secrets pour toi.

Adresse d’emploi :
Lieu : 100 % remote, avec interactions virtuelles régulières.
Durée : 5 à 6 mois, début flexible à partir de janvier 2026.
Encadrement : par le CTO de BaaS.sh en collaboration avec un enseignant-chercheur du IRIT.

Document attaché : 202512051336_Stage M2 Recherche chez BaaS.sh.pdf

Quantification d’incertitude appliquée à la détection d’incohérences dans des images
Jan 11 – Jan 12 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire Loria Nancy / Centralesupélec Metz
Durée : 4-6 mois
Contact : arthur.hoarau@centralesupelec.fr
Date limite de publication : 2026-01-11

Contexte :
Détecter des anomalies ou incohérences locales dans des images grâce à la quantification d’incertitude en apprentissage automatique profond.

Sujet :
En Apprentissage Automatique appliqué à la vision par ordinateur, les cartes de chaleur (heatmaps) sont des outils de visualisation interprétable permettant de comprendre quelles régions d’une image contribuent le plus à la prédiction d’un modèle. Les méthodes les plus répandues, comme Grad-CAM [1], exploitent les gradients des activations internes d’un réseau convolutif pour générer une carte d’importance pondérée.

L’objectif de ce projet est d’obtenir une carte de chaleur des incohérences locales ou anomalies dans une image pour une tâche de classification (e.g., un chat avec des lunettes, un O.V.N.I ou encore une contamination ou impureté sur un aliment) grâce à la quantification d’incertitude du modèle. Quatre grandes familles de méthodes existent dans la littérature pour extraire ces incertitudes : les méthodes bayésiennes, qui modélisent par nature ces différents types d’incertitude [3] ; les méthodes ensemblistes, qui approximent une distribution de probabilités grâce à la variance prédictive des estimateurs [4] ; la minimisation de risque de second ordre, qui modèle l’incertitude du modèle directement dans la fonction de perte ; et les méthodes par densité locale qui s’intéressent au voisinage de l’instance de test.
L’étude pourra en partie s’appuyer sur les récents travaux de [2], qui proposent une méthode pour quantifier l’incertitude liée à l’importance de chaque pixel dans une image.

Voic le document ci-joint pour plus de détails.

[1] R. Selvaraju et. al. Grad-CAM : Visual Explanations from Deep Networks via Gradient-based Localization. IEEE International Conference on Computer Vision (ICCV), 2017.
[2] K. Wickstrom et. al. REPEAT : Improving Uncertainty Estimation in Representation Learning Explainability. Proceedings of the AAAI Conference on Artificial Intelligence, 2025.
[3] A. Kendall et. al. What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision ?. Advances in Neural Information Processing Systems, 2017.
[4] B. Lakshminarayanan et. al. Simple and Scalable Predictive Uncertainty Estimation using Deep Ensembles. Advances in Neural Information Processing Systems, 2017.

Profil du candidat :
– Master 2, préparez une copie de vos notes
– Bon niveau d’anglais
– Appétence pour l’apprentissage automatique

Formation et compétences requises :
– Programmation Python, Machine Learning
– Apprentissage Profond
– Rédaction, Vulgarisation

Adresse d’emploi :
Centralesupélec Metz ou Loria Nancy

Document attaché : 202512051126_sujet_stage.pdf

Stage M2 (+ thèse) : Approches apprentissage pour la complétion informée de données : Détection multi-échelle spectrale de vers de Roscoff.
Jan 11 – Jan 12 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire d’Informatique, Signal et Image de la
Durée : 6 mois
Contact : claire.guilloteau@univ-littoral.fr
Date limite de publication : 2026-01-11

Contexte :

Sujet :
Description du sujet :
Le ver de Roscoff (Symsagittifera roscoffensis) est un petit organisme marin vivant en photosymbiose avec une microalgue verte (Tetraselmis convolutae), ce qui en fait à la fois un modèle d’étude de la symbiose et un bioindicateur de l’état des écosystèmes côtiers [1]. Actuellement, la détection et le suivi des vers de Roscoff reposent sur l’observation directe. L’identification et le suivi de cette espèce à distance restent un défi scientifique et technologique. Le développement de méthodes automatiques d’identification et de suivi permettrait d’évaluer les facteurs environnementaux influençant leur présence et leur répartition ou encore leur dynamique au cours d’un cycle de marée ou lors d’événements météorologiques extrêmes. Ces avancées contribueraient également à mieux comprendre le rôle écologique du ver de Roscoff, qui participe aux flux de matière organique, favorise la capture de CO2 par ses algues symbiotiques et contribue à la production d’O2 dans les zones littorales.
Les approches d’imagerie spectrale permettent de caractériser la signature optique d’organismes ou d’habitats, ouvrant la voie à leur télédétection [2]. Dans ce stage, le ver de Roscoff constitue donc un cas d’étude idéal pour développer des méthodes de détection multi-échelle et de traitement de données hyperspectrales.

Ce projet de stage cherche à répondre à deux verrous scientifiques principaux :
* L’échelle d’observation. La détection en champ proche et contrôlé est faisable en laboratoire, mais la généralisation aux échelles aéroportées et satellitaires reste à confirmer, notamment pour des raisons de résolution spatiale [3].
* La complétion informée des données multi-sources. La complétion informée est le fait de combiner intelligemment des données fines mais locales (airborne) avec des données grossières mais globales (satellite) pour reconstituer une information complète et cohérente. Cette tâche constitue un défi méthodologique.

L’objectif est de développer une approche multi-échelle de détection spectrale des vers de Roscoff. Le projet s’articule autour des 3 étapes suivantes :
1. Identifier les bandes spectrales pertinentes pour la détection des vers de Roscoff en champ proche (laboratoire) et en milieu contrôlé. Cette étape permettra la sélection méticuleuse des instruments satellitaires et aéroportés à utiliser pour cette étude.
2. Développer et tester des méthodes de complétion de données informée afin d’associer les images à différentes résolutions (aéroporté, satellite).
3. Évaluer la faisabilité de la détection automatique à large échelle des vers de Roscoff dans des environnements côtiers, et l’identification des sites candidats pour des futures campagnes in situ ou par survol aérien.

Le but du projet est de développer un outil capable de produire des cartes exploratoires de présence potentielle des vers de Roscoff à partir de données satellitaires et aéroportées afin de contribuer à la mise en place d’un outil de suivi innovant de la biodiversité du littoral. D’un point de vue méthodologique, le projet comporte une part expérimentale mobilisée dans les différentes étapes du projet. Une première phase exploratoire en laboratoire aura pour but d’acquérir des images hyperspectrales des vers de Roscoff en milieu contrôlé. Une seconde phase expérimentale consistera à acquérir des images aéroportées sur des sites déjà identifiés par les chercheurs du laboratoire UGSF pour tester la capacité de détection en milieu
naturel à une échelle intermédiaire. La majorité du projet concerne le développement d’algorithmes de complétion de données informée à l’aide d’approches de type apprentissage automatique/machine learning. De nombreuses méthodes de complétion de données informée existent dans la littérature. Elles sont cependant développées à partir de cas idéaux ou simulées. Par conséquent, peu répondent aux contraintes de notre problème : potentiel mauvais alignement des images entre elles, connaissance limitée des spécifications instrumentales, pas de données annotées ou « vérité-terrain » disponible, représentativité limitée des données aéroportées, non-linéarité des mélanges spectraux.

Cette thématique fait l’objet d’une demande en cours de financement de thèse pour l’automne 2026. Le cas échéant, le ou la candidate pourra poursuivre ce travail pour la préparation d’une thèse.

Encadement :
Le stage aura lieu dans l’antenne de Longuenesse(62) du LISIC, dédiée actuellement à l’imagerie hyperspectrale. Cette antenne, créée en 2020, compte actuellement 8 chercheurs permanents, 3 chercheurs postdoctorants et 7 doctorants. Le ou la stagiaire sera encadré(e) par Claire GUILLOTEAU et Gilles ROUSSEL qui apporteront leur expertise respective en traitement des images MS/HS et en machine learning pour l’imagerie satellitaire. Le ou la stagiaire aura également l’occasion de collaborer avec Christophe Colleoni et Anne Créach, chercheurs spécialistes de la biologie intégrative des polysaccharides de réserve au laboratoire UGSF (Unité de Glycobiologie Structurale et Fonctionnelle) de l’Université de Lille. 

[1] Androuin, T., Six, C., Bordeyne, F., de Bettignies, F., Noisette, F., & Davoult, D. (2020). Better off alone? New insights in the symbiotic relationship between the flatworm Symsagittifera roscoffensis and the microalgae Tetraselmis convolutae. Symbiosis.https://doi.org/10.1007/s13199-020-00691-y
[2] Dierssen, H. M., McManus, G. B., & Kudela, R. M. (2021). Living up to the hype of hyperspectral aquatic remote sensing. Frontiers in Environmental Science, 9, 649528. https://doi.org/10.3389/fenvs.2021.649528
[3] Purkis, S. J. (2022). Remote sensing the ocean biosphere. Annual Review of Environment and Resources, 47, 357–383.https://doi.org/10.1146/annurev-environ-112420-013219

Profil du candidat :
Candidater :
Issu(e) d’une filière scientifique en sciences de données (traitement du signal et des images, informatique avec une dominante en intelligence artificielle/apprentissage/machine learning, mathématiques appliquées), vous êtes curieux(se) et très à l’aise en programmation (Matlab, Python, C). Vous lisez et parlez avec aisance l’anglais courant. Bien que non-obligatoire, une première expérience en traitement d’images satellitaires hyperspectrales ou en deep learning sera appréciée.

Pour candidater, merci d’envoyer un courriel à {claire.guilloteau, gilles.roussel} [at] univ-littoral.fr en y annexant les documents pouvant supporter votre candidature :
* votre CV,
* une lettre de motivation,
* vos relevés de notes de Licence 3, Master 1, Master 2 (si ces dernières sont disponibles) ou d’Ecole d’Ingénieurs (première à troisième année),
* jusqu’à deux lettres de recommandation ou les noms et moyens de contact de deux référents.

Les candidatures seront étudiées de manière continue jusqu’à ce que le stage soit pourvu.

Formation et compétences requises :

Adresse d’emploi :
Longuenesse (62)

Document attaché : 202512081103_VERDEMES_Stage_2026-FR.pdf

[M2] Vol en formation rapprochée pour des drones (close formation flight for small drone teams)
Jan 11 – Jan 12 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : USIS, ENSTA
Durée : jusqu’à 6 mois
Contact : mario.gleirscher@ensta.fr
Date limite de publication : 2026-01-11

Contexte :
De petites équipes d’autonomous aerial vehicles (AAVs) peuvent être utilisées pour collaborer sur des tâches qui ne conviennent pas à un seul AAV. Ces tâches peuvent impliquer la livraison collaborative de colis ou le partage de ressources (e.g., fusion de capteurs distribués, coordination basée sur la durée de vie des batteries ou les capacités de charge utile). De plus, les équipes AAV fonctionnent avec un niveau d’autonomie accru. Une plus grande autonomie impose des exigences plus strictes en matière de critères de performance et de garanties d’exactitude des systèmes de détection et de contrôle de chaque membre de l’équipe. Par exemple, lors d’une tâche de livraison, un vol en formation précis et fiable à proximité immédiate peut être nécessaire.

Sujet :
Ce stage de fin d’études s’inscrit dans le cadre de coordination et contrôle des systèmes robotiques multi-agents et vise à developper une approche pour l’estimation consensuelle des informations pertinentes, la communication entre les membres de l’équipe et la coordination des tâches axée sur les objectifs.

Profil du candidat :
* Diplôme d’ingénieur ou Master 2 en contrôle, mécatronique, systèmes cyber-physiques, systèmes embarqués, ou informatique.
* Niveau d’étude : Bac+5 (M2 ou 3A Diplôme d’ingénieur)
* Bonnes compétences en programmation en C, C++ et Python
* Maîtrise de l’anglais, écrit et parlé. Connaissance préalable du français souhaitable.

Formation et compétences requises :
Compétences recherchées :

* Systèmes multi-agents, contrôle robuste
* Modélisation dynamique, approximation numérique
* Raisonnement automatisé sur les garanties d’exactitude
* Programmation : C, C++, Python

Adresse d’emploi :
Période de démarrage : entre fevrier et mars 2026
Candidature : Merci d’envoyer un CV, une lettre de motivation ainsi que vos relevés de notes à mario.gleirscher@ensta.fr.

Document attaché : 202512081106_stage-vol-en-formation-gleirscher.pdf

Jan
15
Thu
2026
Intégration de la variabilité temporelle dans la prédiction des communautés phytoplanctoniques à l’aide du deep learning.
Jan 15 – Jan 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire Oceanographique de Villefranche-sur-me
Durée : 6 mois
Contact : enza.labourdette@imev-mer.fr
Date limite de publication : 2026-01-15

Contexte :
Le phytoplancton regroupe les micro-organismes marins dérivant au gré des courants et capables de
produire de la matière organique grâce à la photosynthèse.
Il joue un rôle essentiel dans le fonctionnement du système Terre : il contribue à environ la moitié de la
photosynthèse planétaire, participe au stockage du carbone à l’échelle climatique via la pompe
biologique, et constitue la base des réseaux trophiques marins.
Mieux comprendre la répartition et la diversité du phytoplancton, en lien avec les conditions physiques
et biogéochimiques de son environnement, est donc fondamental. Cela permet d’estimer plus finement
sa biomasse, son rôle dans les cycles biogéochimiques et d’anticiper les réorganisations induites par les
changements climatiques et océaniques globaux.
Cependant, l’observation directe du phytoplancton à grande échelle demeure limitée, car elle repose sur
des campagnes en mer et des prélèvements coûteux. Les données HPLC (High Performance Liquid
Chromatography), qui permettent d’analyser les pigments photosynthétiques pour quantifier
précisément les communautés phytoplanctoniques, offrent une référence fiable, mais restent
coûteuses et spatialement limitées.
Pour étendre ces observations ponctuelles à l’échelle globale, les satellites d’observation de la couleur
de l’océan constituent un outil clé. Les algorithmes empiriques actuels permettent d’estimer la
composition du phytoplancton à partir des réflectances optiques , mais ils présentent encore
une marge d’erreur importante et ne capturent pas toujours la complexité spatiale et temporelle des
structures océaniques (fronts, tourbillons, etc.).

Sujet :
Ce stage s’inscrit dans la continuité d’une thèse centrée sur la prédiction des Phytoplankton Functional
Types (PFTs) à partir de la couleur de l’eau et de variables satellitaires à l’aide de méthodes de deep
learning.
L’objectif principal est d’améliorer la robustesse et la précision des prédictions en intégrant explicitement
la dimension temporelle des données au moyen de méthodes avancées de deep learning.
Concrètement, cela consiste à exploiter les images satellites des jours ou des semaines précédentes pour
estimer la quantité et la composition du phytoplancton à un instant t donné. En effet, la croissance du
phytoplancton est un processus dynamique, et son état actuel dépend fortement des états antérieurs du
système.
Un pipeline opérationnel est déjà en place :
– les données satellitaires et in situ ont été extraites et prétraitées,
– des modèles de type MLP (Multi-Layer Perceptron) ont été développés et évalués,
– une première étude de la sensibilité, en termes de qualité des prédictions, aux variables d’entrée
et à l’architecture du modèle a été menée,
– une seconde étude, sur l’intégration de la dimension spatiale dans les données d’entrée, est en
cours.
Le stage consistera à poursuivre et à approfondir ces travaux, notamment en :
– explorant de nouvelles architectures de deep learning (par ex. RNN) permettant de mieux
capturer la structure temporelle des données ;
– évaluant l’impact de cette intégration sur la qualité des prédictions de PFTs ;
– affinant l’interprétation des modèles pour mieux comprendre les liens entre conditions
environnementales et composition des communautés phytoplanctoniques.
Ce travail contribuera directement à l’amélioration des produits satellitaires de distribution
phytoplanctonique à l’échelle globale, utiles pour le suivi de la santé des écosystèmes marins et la
gestion durable des ressources océaniques.

Objectifs du Stage :
– Compréhension de la problématique biologique.
– Étude des relations entre les propriétés optiques de l’eau et les PFTs.
– Prise en main et optimisation du pipeline existant, de la sélection et du traitement des données
jusqu’à leur exploitation dans un modèle de deep learning.
– Analyse de la variabilité spatio-temporelle : quantifier l’impact de l’intégration des dimensions
spatiale et temporelle sur la prédiction des PFTs.
– Mise en forme et valorisation des résultats pour une utilisation dans des travaux de recherche à
publier.

Profil du candidat :

Formation et compétences requises :
– Intérêt marqué pour la recherche et les sciences marines.
– Maîtrise du langage Python.
– Connaissances en deep learning (PyTorch).
– Des notions en écologie, biologie marine ou océanographie seraient un atout.

Adresse d’emploi :
181 chemin du Lazaret Villefranche-sur-Mer, France

Document attaché : 202511140931_STAGE 2026 – ANNONCE.pdf