Offres d’emploi

Offres d’emploi

 Postes    Thèses    Stages 

Postes/PostDocs/CDD

Jun
10
Tue
2025
Postdoc Survey of the field of smart applications and devices
Jun 10 – Jun 11 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CEDRIC, CNAM
Durée : 6 mois
Contact : elena.kornyshova@cnam.fr
Date limite de publication : 2025-06-10

Contexte :

Sujet :
Multiple applications as well as so-called ‘smart’ devices appear and develop. This field is booming, it is not yet structured. As part of an international collaboration, we have started this work at the level of existing states of the art (2410 works). However, this work is limited because it does not take into account primary research sources (around 300,000). The objective is to carry out a survey of the publications available in scientific databases in order to analyze the existing terminology and establish typologies of fields and intelligent devices in the whole and by sub-domain: smart healthcare, smart cities, etc.

Profil du candidat :
PhD in Computer science, machine learning, NLP, interested in Smart applications and devices.

Formation et compétences requises :

Adresse d’emploi :
2 rue Conté, 75003 Paris, France

Jun
15
Sun
2025
POST DOC CONCEPTION ET MISE EN PLACE DE SOLUTIONS IA POUR L’OPTIMISATION DES FLUX INDUSTRIELS – H/F
Jun 15 – Jun 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ISEN Yncrea Ouest
Durée : 12 mois
Contact : sylvain.lefebvre@isen-ouest.yncrea.fr
Date limite de publication : 2025-06-15

Contexte :
Yncréa Ouest est un Établissement d’Enseignement Supérieur Privé d’Intérêt Général (EESPIG) sous contrat avec le ministère de l’Enseignement Supérieur et de la Recherche. L’Association Yncréa Ouest est membre d’Yncréa, premier pôle privé associatif d’écoles d’ingénieurs en France. Yncréa Ouest gère l’école d’ingénieurs ISEN Yncréa Ouest, implantée sur les villes de Brest, Caen, Nantes, Rennes et Paris (Antony). L’école forme des élèves ingénieurs dans les technologies du numérique et notamment les systèmes numériques embarqués, la robotique, l’énergie, les objets connectés (IoT), l’intelligence artificielle, le big data, l’environnement, le développement durable, les technologies marines et la cybersécurité. Les activités de recherche de l’équipe d’accueil sont centrées essentiellement sur le numérique et ses applications notamment celles dans l’Usine du futur, le campus connecté, le traitement des données et l’Intelligence Artificielle. Plus des détails sont disponibles sur le site de l’ISEN.

Ce contrat se déroule dans le cadre d’une chaire industrielle créée en 2021 entre l’entreprise ACOME, leader européen dans la création des câbles et le L@bISEN, le laboratoire de recherche de l’Institut Supérieur de l’Electronique et du Numérique (ISEN). Ce travail va être effectué par un(e) post-doctorant(e) ou un(e) ingénieur(e) de recherche, sur une période de de 12 mois, encadré(e) par un enseignant-chercheur de l’ISEN Ouest. Plus largement, la personne recrutée bénéficiera du soutien technique de l’équipe de recherche, équipe composée de 5 E/C et 2 ingénieurs.

ACOME – Mortain A la fois leader et spécialiste sur les marchés des réseaux télécoms et infrastructures, des réseaux du bâtiment, de l’automobile et de l’embarqué, ACOME est aujourd’hui le premier Groupe industriel coopératif Français produisant des câbles, des tubes et de la fibre optique sur le territoire national depuis 1932 et la première SCOP de France (Société Coopérative et Participative) avec une forte dynamique internationale et des implantations en Chine, en Afrique du Nord et au Brésil. Plus des détails sont disponibles sur le site d’ACOME.

Pour inciter à la mixité des candidatures sur tous les postes et surtout ceux à forte prédominance féminine ou masculine, l’Association rappelle qu’elle étudie avec la même attention les candidatures féminines et masculines.

Association handi-accueillante, nos postes sont ouverts aux personnes en situation de handicap.

Pour candidater : https://isen.softy.pro/offre/161433-post-doctoral-conception-et-mise-en-place-de-solutions-ia-pour-loptimisation-des-flux-industriels-h-f

Sujet :
En 2019 l’industrie manufacturière était responsable de 19% des déchets non dangereux produits chaque année [1]. A l’ère de la numérisation massive de l’industrie et du développement des technologies d’intelligence artificielle, la mise en place de systèmes et procédures permettant d’automatiser la détection et la correction des défauts de production promet d’impacter significativement les quantités rejetées lors de la production.
La fabrication des câbles combine plusieurs activités complexes de production effectuées par différentes machines dans plusieurs ateliers. L’activité de production de l’entreprise concerne principalement la production de câbles pour différents secteurs industriels et notamment pour le secteur automobile. Il s’agit donc de fabrication de produits en long. Les procédés de fabrication pour ce genre de produits impliquent des flots continus de matières circulant dans et entre les machines. Des changements d’ordre de fabrication, des défauts de qualité des matières premières ou des conditions de production particulières produisent par exemple des produits ne pouvant être commercialisés qui sont alors des sources de coût pour l’entreprise et ont impact environnemental négatif.
Il y a donc un besoin de fournir un outil d’analyse intelligent de plusieurs sources de données sur l’ensemble du processus de production, qui puisse recommander automatiquement aux ingénieurs qualité les paramètres optimaux pour minimiser les déchets.
ACOME et les équipes de l’ISEN ont donc développé un lac de données rassemblant les informations de production et de qualité lors des phases antérieures du projet. L’analyse de ces données est en cours et permettra de faire émerger des recommandations et des outils de suivis appropriés pour les équipes qualité d’ACOME.
Le post doctorant interviendra donc dans le développement de ces outils d’analyse, ce qui pourrait nécessiter la conception de nouvelles approches de recherche, comme : l’analyse de journaux existants et d’identification automatiques des éléments pouvant amener à générer des déchets [1], le développement de méthodes prédictives (IA, Apprentissage Automatique et Profond) pour l’estimation des quantités de déchets. D’autres approches peuvent utiliser des jumeaux numériques [2, 4] et l’apprentissage par renforcement pour virtuellement reproduire les conditions de l’usine et analyser l’impact des variations des paramètres de production. Enfin, les approches visant à optimiser l’ordonnancement des tâches, c’est-à-dire la planification des activités de production, dans le but de minimiser la quantité de déchets produits pourront être explorées [3].

Références :
[1] Duong, L. T., Trave-Massuyes, L., Subias, A., & Roa, N. B. (2021). Assessing product quality from the production process logs. The International Journal of Advanced Manufacturing Technology, 117, 1615-1631.
[2] Howard, D. A., Ma, Z., & Jørgensen, B. N. (2021). Digital Twin Framework for Industrial Production Processes. Energy Informatics, 4(Suppl. 1), P9.
[3] Le Hesran, C., Ladier, A. L., Botta-Genoulaz, V., & Laforest, V. (2019). Operations scheduling for waste minimization: A review. Journal of cleaner production, 206, 211-226.
[4] Botín-Sanabria, D. M., Mihaita, A. S., Peimbert-García, R. E., Ramírez-Moreno, M. A., Ramírez-Mendoza, R. A., & Lozoya-Santos, J. D. J. (2022). Digital twin technology challenges and applications: A comprehensive review. Remote Sensing, 14(6), 1335.

Profil du candidat :
Le candidat devra montrer une solide expertise dans un ou plusieurs des domaines suivants :
– Avoir des prérequis solides en : IA, Statistique, Big Data Analysis, Big Data Science, Machine Learning, Deep Learning, etc.
– Excellente compétence en programmation orientée-objet (Python ou Java, etc.)
– Avoir une expérience dans la proposition, développement, test des modèles de statistique inférentielle, de corrélation, de régression, de classification ou de clustering,
– Maitriser le Français et l’Anglais,
– Mener des recherches de haut-niveau et publier des articles scientifiques dans des conférences et des revues internationales à comité de lecture.

Expériences appréciables :
– Une expérience industrielle,
– Connaissance du SQL.

Formation et compétences requises :

Adresse d’emploi :
Carquefou ou Antony

Jun
20
Fri
2025
Enseignant/e Chercheur/euse contractuel/le en Intelligence Artificielle Générative
Jun 20 – Jun 21 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : EFELIA Côte d’Azur
Durée : 2 ans
Contact : vincent.vandewalle@univ-cotedazur.fr
Date limite de publication : 2025-06-20

Contexte :
Nous recherchons notre futur/future Enseignant/e Chercheur/euse contractuel/le en Intelligence Artificielle Générative !
Le rattachement sera à EFELIA Côte d’Azur, ainsi qu’au département d’informatique.
Rejoignez-nous au sein d’Université Côte d’Azur, reconnue depuis 2016 pour son excellence scientifique et pédagogique, pour créer ensemble le modèle de l’université du 21ème siècle responsable et innovante.

Sujet :
La personne recrutée intègrera l’équipe du projet EFELIA Côte d’Azur pour contribuer au développement des formations établies par la direction scientifique, en particulier à destination des publics de master, mais non exclusivement (licence, formation professionnelle et MOOC). Lapersonne participera à la production de contenu scientifique pour ces enseignements. La mission comprend 128 heures équivalent TD d’enseignement en présentiel, 64 heures de missions complémentaires (représentation du projet, aide à la réalisation de contenus en ligne), et d’une mission de recherche en développant une perspective sociologique de l’IA. La
personne devra être capable d’enseigner des cours de base en IA (en particulier machine learning) à destination de publics non techniques, et des cours avancées aux publics experts et professionnels, en particulier sur les méthodes d’IA générative, tout en y développant une perspective critique incluant les problématiques éthiques, sociales et écologiques (limites, biais, consommation, justice sociale).Le projet de recherche devra être mené aux laboratoire I3S (UniCA, CNRS) ou au Centre Inria d’UniCA, et conçu avec des membres de ces laboratoires pour y développer des activités autour des modèles fondations pour les grands défis scientifiques et de société (exemples : analyse multimédia, biologie, médecine, environnement). Le projet de recherche devra permettre de démontrer une réelle volonté d’intégration à l’équipe d’accueil en recherche, pour contribuer à apporter de nouvelles approches aux domaines fondamentaux ou applicatifs de l’équipe

Profil du candidat :
Les personnes candidates doivent avoir :
• Un doctorat avec une forte composante en apprentissage automatique et deep learning (ou une soutenance de doctorat prévue en 2025),
• Contributions de recherche en apprentissage automatique, apprentissage profond et domaines d’application tels que la vision par ordinateur,
• Publications dans des revues internationales de premier plan (PAMI, JMLR, IEEE Trans. On Multimedia, …) ou dans des conférences sur l’IA et ses principaux domaines d’avancement (NeuRIPS, ICML, CVPR, ICCV, ACM Multimedia, AISTATS, IJCAI, ACL, IEEE IROS, …),
• Capacité à enseigner des cours d’informatique, d’apprentissage automatique et d’apprentissage profond,
• La maîtrise du français est requise.

Formation et compétences requises :
Une expérience en enseignement est souhaitée.
Expérience dans l’enseignement de l’Intelligence Artificielle serait un plus.

Adresse d’emploi :
Les missions d’enseignement/formation seront assurées sur les
différents campus de l’université, les activités de recherche seront à l’I3S ou à l’Inria.

Document attaché : 202505150911_Fiche de poste Enseignant·e·s contractuel·le·s IA générative EFELIA Côte d’Azur ok-3.pdf

Jun
30
Mon
2025
Postdoc IA/PINN based in Marseille
Jun 30 – Jul 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : AMSE/IRPHE, Marseille
Durée : 24 mois
Contact : badihghattas@gmail.com
Date limite de publication : 2025-06-30

Contexte :
Researchers in statistics and fluid mechanics are collaborating on developing digital twins that replicate the behavior of CFD (computational fluid dynamics) models.

Sujet :
Substitution of Fluid Mechanics Numerical Models with Deep Learning Models. Applications to Vascular Pathologies

Profil du candidat :
We are looking for a candidate who demonstrates strong autonomy and the ability to work effectively within a collaborative team environment. The ideal candidate will possess excellent analytical and critical thinking skills, as well as a keen ability to listen, observe, and engage constructively in discussions. We also value flexibility, adaptability, and clear communication skills, both written and verbal.

Formation et compétences requises :
A phD in applied Mathematics, artificial intelligence or Mechanics with good skills in programming with python (keras, pytorch, numpy, pandas,…) and data manipulation and management.

Adresse d’emploi :
5-9 Boulevard Maurice Bourdet, 13001 Marseille.

Document attaché : 202505061131_PostDocAnnonceEn.pdf

Jul
7
Mon
2025
Enseignant-Chercheur Contractuel MCF section 27
Jul 7 – Jul 8 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : UFR de mathématique et d’informatique, Université
Durée : 11 mois renouvelable
Contact : cecilia.zanni-merk@insa-rouen.fr
Date limite de publication : 2025-07-07

Contexte :
Date de prise de fonction : 01/10/2025
Caractéristique du poste : 11 mois, contrat renouvelable (possibilité de passer en CDI de mission après le premier contrat)
Rémunération : La rémunération principale, versée par l’Unistra est de 3824 € brut mensuel à laquelle s’ajoute une rémunération complémentaire par le partenaire Azerbaïdjanais (environ 1200€ brut mensuel).
Le candidat ou la candidate devra être qualifié aux fonctions de Maître de Conférences par le CNU

Sujet :
Intitulé du profil Enseignement : Informatique La personne recrutée enseignera dans les diplômes de Licence et Master en informatique à l’UFAZ (Université Franco Azerbaidjanaise) à Bakou (Azerbaïdjan). Elle devra être capable d’enseigner la plupart des matières proposées dans ces cursus. Elle sera impliquée dans l’organisation pédagogique des formations, en coordination avec les responsables de diplômes.
Les offres de formation du BSc Computer Science et du MSc DSAI sont disponibles dans le document ci-joint.
Langue d’Enseignement : Anglais

Intitulé du profil Recherche : Intelligence Artificielle Pour renforcer le département de recherche en informatique, l’UFAZ ouvre un poste de maître de conférences contractuel en informatique. La personne recrutée devra être qualifiée en section 27 du CNU. Elle devra proposer un projet d’intégration en recherche dans l’un de ces trois axes : Algorithmes évolutionnaires, Apprentissage automatique et Fouille de données ou Graphes de connaissances et sémantique. Une description détaillée de chaque axe peut être consultée sur le site web du département de recherche : https://cs.research.ufaz.az
La personne recrutée devra contribuer activement à la vie de la communauté scientifique. Au niveau local, elle sera force de proposition à l’intérieur des équipes de recherche, proposera de nouvelles interactions ou renforcera les liens existants entre équipes. Au niveau national ou international, elle sera moteur pour la mise en place de projets scientifiques. Son rôle sera également de suivre et développer les interactions émergentes entre l’industrie et le département recherche.

Profil du candidat :

Formation et compétences requises :
Il sera très apprécié si le candidat possède les compétences suivantes
● managériales et organisationnelles permettant de superviser les enseignants locaux et de maintenir une communication efficace avec les professeurs invités, l’équipe de l’Université de Strasbourg (Unistra) et la direction de l’UFAZ.
● en matière d’administration universitaire, comprenant l’élaboration des programmes d’études et leur évaluation
● d’adaptation dans un environnement multi-culturel et inter-disciplinaire
● linguistiques avec la nécessité de posséder un niveau d’anglais B2 au minimum.

Adresse d’emploi :
Université Franco-Azerbaidjanaise (UFAZ) à Bakou (Azerbaidjan)

Document attaché : 202506231433_[MI] fiche de poste contractuel_Math-Info UFAZ 2025.pdf

Jul
15
Tue
2025
Postdoc/Research Engineer position in AI/IR – University of Brest, France
Jul 15 – Jul 16 all-day

Offre en lien avec l’Action/le Réseau : SimpleText/– — –

Laboratoire/Entreprise : HCTI, University of Brest, France
Durée : 12 months
Contact : liana.ermakova@univ-brest.fr
Date limite de publication : 2025-07-15

Contexte :
ANR JCJC SimpleText project: Automatic Simplification of Scientific Texts (https://anr.fr/Projet-ANR-22-CE23-0019) in partnership with the University of Amsterdam

Application
If you feel the profile fits you, and you are interested in the job, we look forward to receiving your application. Job applications should be sent to liana.ermakova@univ-brest.fr. We accept applications until and including 13 July 2025.

Applications should include the following information:

– A detailed CV including the months (not just years) when referring to your education and work experience;

– A letter of motivation explaining how the project is related to your research background;

– A list of publications (in case of joint authorship, please clearly indicate your own contribution);

– The thesis;

– The names, affiliations, and email addresses of two academic referees who can provide details about your academic profile in relation to this position (please do not include any reference letters in your application).

Sujet :
We seek an ambitious and highly talented postdoc to work on the interface of information retrieval (IR) and natural language processing (NLP) models applied to large-scale scientific text corpora. The recruited person will work as part of the ANR JCJC SimpleText project: Automatic Simplification of Scientific Texts (https://anr.fr/Projet-ANR-22-CE23-0019) in partnership with the University of Amsterdam. Our project aims to develop effective and efficient IR and NLP technology for promoting scientific information access and to support non-professionals searching for scientific information in academic literature. Specifically, we deploy large language and foundation models for the RAG (retrieval augmented generation) setup in the context of text simplification. There is considerable flexibility to shape the project to emerging research opportunities and the background and interests of the candidate.

Profil du candidat :
The candidate should have a PhD in AI/NLP/IR and a strong motivation for the project topic.

Formation et compétences requises :

Adresse d’emploi :
HCTI, University of Brest
20 rue Duquesne
29200 Brest
France

Sep
1
Mon
2025
Maître de Conférences en Apprentissage Machine et Contrôle de systèmes complexes
Sep 1 – Sep 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IMT Mines Alès (Ecole Nationale Supérieur des Mine
Durée : CDI
Contact : guyot@irit.fr
Date limite de publication : 2025-09-01

Contexte :

Sujet :
Maître de Conférences en Apprentissage Machine et Contrôle de systèmes complexes

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
IMT Mines Alès (Ecole Nationale Supérieur des Mines d’Alès)

Document attaché : 202409050837_fp_-_mdc_ceris_ia_et_ingenierie_fr-2.pdf

Study Engineer Position – data-base manager, Bioinformatics & systems modeling for neurodegenerative disease research, Paris, France
Sep 1 – Sep 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Brain-C Lab, Institute of Biology Paris-Seine (IBP
Durée : 12 months
Contact : lucile.megret@sorbonne-universite.fr
Date limite de publication : 2025-09-01

Contexte :

Sujet :
Project: A 12 months position is immediately available in the Brain-C Lab in Paris for a bioinformatician at the Study Engineer (IE) level (post-master position). The selected candidate will work with a team of mathematicians, bioinformaticians, and neurobiologists on modeling time- and cell-resolved omics data to built computational models of molecular pathogenesis in neurodegenerative diseases such as amyotrophic lateral sclerosis (ALS), integrate data from other diseases such as Huntington’s disease (HD) and disseminate data via online platforms. The selected candidate will use BioGemix, our post-omics machine learning platform and related databases. This position is a unique opportunity to further develop expertise and skills in a multidisciplinary team and network of direct collaborators that cover systems modeling, database development, and cellular neurobiology for breakthrough in neurodegenerative disease research.

Profil du candidat :
Profile: The candidates should hold a Master in Biofinformatic or a Master in Informatics and they should have no more than 3-4 years of post-master experience. The position is full time, on site, and candidates should have strong collaborative skills and commitment to team work along with strong ability to work independently in addition to strong interest for research.

Formation et compétences requises :
• Training and required skills:
Experience working with NGS data and performing respective bioinformatic pipelines in order to process sequencing data.
• Programming autonomy on at least one of the following languages: python, R, C / C ++.
• Good knowledge of basic web technologies: PHP, MySQL, JavaScript, jQuery.
• Fluency on Ubuntu.
• Hands-on experience with in house server maintenance (Backup, shared space, and webserver).
• Scientific English essential

• Skills in data visualization will be a plus.
• Basic knowledge in statistics and machine learning are desirable but not mandatory.

Adresse d’emploi :
7 quai Saint Bernard 75005 Paris

Document attaché : 202506271149_Annonce_bioinfo_IE.pdf

Sep
26
Fri
2025
Chaire de Professeur Junior @ Toulouse INP : Agroécologie numérique
Sep 26 – Sep 27 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Toulouse INP : ENSEEIHT/IRIT ou AgroToulouse/Dynaf
Durée : 3 à 5 ans
Contact : nicolas.dobigeon@enseeiht.fr
Date limite de publication : 2025-09-26

Contexte :

Sujet :
Une chaire de professeur junior (CPJ) est ouverte au recrutement à Toulouse INP sur le thème de la “modélisation et apprentissage automatique pour l’agroécologie” (IA, modélisation, télédétection, agronomie…).

Selon le profil du lauréat ou de la lauréate, deux rattachements sont possibles :
– à l’INP-AgroToulouse (enseignement) et à l’UMR DYNAFOR (recherche)
– à l’INP-ENSEEIHT (enseignement) et à l’UMR IRIT (recherche)

Quel que soit le rattachement, l’objectif est que la personne contribue à créer de la synergie entre les deux écoles et les laboratoires, dans le cadre de la création d’une nouvelle formation transversale associée.

Les candidatures sont ouvertes jusqu’au au vendredi 22 août 2025 à 16h00 (heure de Paris) sur la plateforme ODYSSEE :
https://odyssee.enseignementsup-recherche.gouv.fr/
Voir les instructions ici :
https://www.galaxie.enseignementsup-recherche.gouv.fr/ensup/cand_recrutement_enseignants_chercheurs_Odyssee.htm

Des détails concernant le contexte et les objectifs de cette chaire sont disponibles sur l’appel à candidature :
https://www.inp-toulouse.fr/_attachment/campagnes-de-recrutement-enseignants-chercheurs-accordeon/Profil%202025_CPJ%20Mod%C3%A9lisation%20et%20apprentissage%20automatique%20pour%20l’agro%C3%A9cologie.pdf?download=true

Profil du candidat :
Au terme de la période de 5 ans maximum, une titularisation dans le corps des Professeurs des Universités sera envisagée. Cette chaire est donc adaptée à des personnes ayant déjà 3 à 5 ans d’expérience après la thèse et dont le dynamisme permettrait de prétendre à un poste de Professeur à la fin d’une période de 5 ans, en supposant l’HDR soutenue.

Elle est aussi ouverte à des personnes déjà titulaires de l’HDR. Dans ce cas, en fonction de l’expérience, la durée de la chaire pourrait être réduite à 3 ans avant une possible titularisation.

Formation et compétences requises :
La thématique de la chaire est large et peut correspondre à des personnes venant du monde des sciences des données et du traitement des images, intéressées par l’agroécologie spatialisée comme domaine d’application privilégié. Elle s’adresse aussi à des agronomes / agroécologues ayant une bonne expérience en modélisation (statistique, mécaniste) spatialisée.

Adresse d’emploi :
Toulouse INP

Document attaché : 202507100908_Profil 2025_CPJ Modélisation et apprentissage automatique pour l’agroécologie.pdf

Sep
30
Tue
2025
Post-doctorat — Comparaison d’images médicales par Carte de Dissimilarités Locales — CReSTIC / Siemens / Institut Godinot
Sep 30 – Oct 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CReSTIC / Institut Godinot / Siemens
Durée : 24 mois
Contact : Agnes.Delahaies@univ-reims.fr
Date limite de publication : 2025-09-30

Contexte :

Sujet :
https://crestic.univ-reims.fr/uploads/emplois/Siemens_Post_Doc.pdf

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
Université de Reims Champagne-Ardenne (Reims, Troyes)

Document attaché : 202505161710_Siemens_Post_Doc.pdf

Oct
1
Wed
2025
Post-Doc Position in Explainable Artificial Intelligence over evolving IoT data streams
Oct 1 – Oct 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : ETIS/CY Paris Cergy Université
Durée : 18 months
Contact : aikaterini.tzompanaki@cyu.fr
Date limite de publication : 2025-10-01

Contexte :
The position is funded by the prestigious EU Horizon PANDORA project, A Comprehensive Framework enabling the Delivery of Trustworthy Datasets for Efficient AIoT Operation. The main goal of the project is to contribute towards the creation of a dynamic AI pipeline in the context of IoT applications, focusing on i) the creation of synthetic but trustworthy data, and ii) on the development of AI algorithms for various tasks (from classic classification, regression and anomaly detection, to forecasting and predictive maintenance) taking into account the specific data characteristics of continuous data generation settings and leveraging the domain knowledge when available. Explainability is a fundamental property for rendering the systems reliable, as it can help i) enhance the acceptability of the system by the system experts and further aid in decision making, ii) optimize model performance (time and accuracy) by revealing the actual causes behind predictions, and iii) repair data acquisition processes or model training/updating by exposing errors and/or drifts that may arise through time. The project gathers over 20 academic and industrial partners, with real and challenging use-cases and thus provides a unique opportunity to contribute to cutting-edge research with significant real-world impact.

Sujet :
Subject: Predictive maintenance (PDM) in industrial settings spans from identifying anomalies and categorizing failures in already observed data, to prognostically predicting the Remaining Useful Life (RUL) and the Failure Time (FT) of machines, appliances, etc., in the future. Typically such predictive tasks are implemented using Deep Learning and/or statistical analysis techniques, which may be complex to interpret, while their performance is challenged by multiple sources of errors (sensors’ tuning, aging, failures, etc.) and the non-stationary nature of IoT data streams. In particular, concept drifts can originate from the changes in the underlying data generation mechanism that reflects different states of the monitored system. In this context, the predictive performance of already trained models f(X,Y) (e.g., classification, regression) may start degrading after a certain point in time and hence models need to be adapted at the right frequency. However, not all types of changes in the joint probability distribution P(X,Y) have the same impact on model performance. In this respect, we need to distinguish between changes in the posterior probability distribution P(Y|X) (i.e., Model drifts) between input features X and the target variable Y, from class-conditioned data distribution changes P(X|Y) (i.e., likelihood drifts) and changes in the distribution of input features P(X) (i.e., covariate drifts). Clearly, not all types of changes of the joint probability distribution $P(X, y)$ influence predictive models in the same way and hence, they require different mitigation actions. In this project we are particularly interested in how data quality and concept drifts affect the performance of PDM tasks such RUL and FT.

Moreover, besides developing performant, robust, and stable FT and RUL prediction algorithms through time, we are also interested in enhancing interpretability of their results. On the one hand, engineers need to know the root causes for a predicted machine failure at a time t in the future, so that they may take the best possible action towards preventing the failure to happen, or replace a machine in time before having to take the system down for replacement of the compromised machine. Such explanations should cover both the time parameter (why a failure will happen after a time interval) and the type of failure (why a specific type of error will happen). On the other hand, fine-grained explanations of the different types of concept drifts can guide data analysts to take timely, and informed actions for adapting the prediction algorithm to the observed concept drift. While explainability has been a major research interest in recent years, explanation methods for concept drift are still in their infancy. Some of the approaches aim for the detection and quantification of drift, its localization in space or its visualization, while others focus on feature-wise representations of drift. In this project, we aim to investigate actionable concept drift explanations, adding in the equation weak and strong signals for failure events. We believe that concept drift explanations constitute a form of actionable explanations responding to both aforementioned expert needs, and thus can be more valuable than standard feature importance explanations.

Profil du candidat :
Responsibilities/Opportunities
Conduct high quality research in Explainable AI in non-stationary settings.
Develop novel algorithms and methodologies for Predictive Maintenance using IoT streams.
Publish in top-tier conferences and journals.
Collaborate with an interdisciplinary team of researchers and industry partners.
Participate in project meetings and contribute to the project’s management.

Formation et compétences requises :
PhD in Machine Learning, AI, Data Science, Statistics, or a related field.
Strong background in at least one of the following: deep learning, continual learning, time series analysis, or predictive maintenance.
Experience with explainable AI (XAI) methods.
Proficiency in Python and relevant ML frameworks (PyTorch, TensorFlow, Scikit-learn).
Excellent publication record in Data management, Artificial Intelligence, Machine Learning, or IoT applications.

Adresse d’emploi :
Equipe DATA&AI – ETIS Laboratory, CY Cergy Paris Université

33 Bd du Port, 95000 Cergy

Document attaché : 202503241752_Post-Doc Position in Explainable AI in Industrial Settings_DATAIA_PARIS.pdf

Oct
2
Thu
2025
CPJ machine learning et physique à l’Université Paris-Saclay
Oct 2 – Oct 3 all-day

Offre en lien avec l’Action/le Réseau : DatAstro/– — –

Laboratoire/Entreprise : LISN
Durée : 3 à 5 ans
Contact : cyril.furtlehner@inria.fr
Date limite de publication : 2025-10-02

Contexte :
Le département d’informatique de l’Université Paris-Saclay annonce l’ouverture d’une Chaire de Professeur Junior rattachée au laboratoire LISN, dans le domaine interdisciplinaire de l’apprentissage automatique et de la physique, à partir de décembre 2025 (voir détails : https://team.inria.fr/tau2/files/2025/09/CPJ.pdf).

Cette CPJ correspond à un poste de type tenure-track, assorti d’un financement de démarrage d’environ 200 k€ et d’un service d’enseignement réduit (64h/an) pendant les premières années, normalement suivi d’une titularisation comme professeur des universités.

La date limite de candidature est le 2 octobre. Dépôt des candidatures via : https://odyssee.enseignementsup-recherche.gouv.fr/procedures/recrutement-ec/offres-poste/fiche-offre-poste/253200.

Pour toute question scientifique ou générale, merci de contacter Cyril Furtlehner et Guillaume Charpiat (cyril.furtlehner@inria.fr, guillaume.charpiat@inria.fr), et pour les aspects pédagogiques Lila Boukhatem (lila.boukhatem@universite-paris-saclay.fr).

Sujet :
L’intelligence artificielle est au cœur de la stratégie de l’Université Paris-Saclay. Le couplage entre IA, mathématiques appliquées et physique constitue un domaine stratégique, avec des applications allant du climat (modélisation spatio-temporelle, enrichissement de données) à la santé (médecine personnalisée, modélisation d’organes).
Le thème du projet illustre la synergie entre les départements de mécanique numérique, d’apprentissage et de science des données du LISN, et s’inscrit dans les axes portés par DATAIA et le clusterIA via les chaires modulaires. Certains axes s’inscrivent dans des initiatives internationales pluridisciplinaires entre physique et informatique, comme la Simons Collaboration on Cracking the Glass Problem (https://scglass.uchicago.edu/).

Le projet PhyML est aligné sur les priorités du LISN :

– Projet multidisciplinaire à l’interface entre apprentissage, science des données, simulation et mécanique ;
– Fort ancrage dans l’écosystème local, avec des collaborations structurées : projet ML4CFD (Machine Learning for Computational Fluid Dynamics, coll. IFPEN), projet HSA (Hybridation Simulation Apprentissage, IRT-SystemX) et thèse CD-ROM (Complementary Deep – Reduced Order Model), projet ANR SPEED (Simulating Physical PDEs Efficiently with Deep Learning, coord. Lionel Mathelin), ainsi que la start-up fondée par deux doctorants de l’équipe A&O (M. Nastorg et E. Meunier).

Par ailleurs, l’interface entre IA et physique constitue un des axes de DataIA, centré sur les liens entre IA, systèmes complexes et physique statistique, soutenu par les possibilités de financement du ClusterIA.

Profil du candidat :
**Résumé du projet**

L’objectif est de développer des interactions fécondes entre physique et apprentissage automatique.

– Premier axe : AI4Science (SciML), en développant des méthodes d’apprentissage pour mieux simuler ou comprendre des phénomènes physiques. Cela inclut l’intégration de connaissances physiques (invariances, symétries et bris de symétrie, propriétés désirées, métriques entre systèmes dynamiques, PINNs, etc.) dans les tâches d’apprentissage. On peut concevoir pour cela des architectures neuronales et méthodes d’optimisation adaptées (graph-NN, transformers, schémas de discrétisation, NeuralODEs, modèles multi-échelles, génératifs, réseaux neuronaux group-equivariant, …). Le couplage entre simulation et apprentissage, dans un contexte riche en données, ouvre des perspectives majeures (accélération, stabilisation des simulations, résolution de problèmes inverses).

– Deuxième axe : exploiter des concepts de physique théorique (ou mathématique) pour explorer les propriétés fondamentales de l’apprentissage automatique, par exemple la scalabilité (neural scaling laws) ou la dynamique d’entraînement, en particulier en haute dimension. Cela peut impliquer des outils classiques (théorie des matrices aléatoires, méthodes de répliques), ou des concepts plus récents spécifiques au ML (neural tangent kernel, régime de « lazy training »). On pourra explorer la dynamique au-delà du lazy regime, les régimes hors équilibre des Energy-Based Models via la dynamical mean field theory, ou encore les compromis confidentialité–utilité avec des modèles analytiques. Des concepts issus d’autres domaines de la physique ou des mathématiques appliquées peuvent aussi être pertinents, comme l’ont montré les processus de diffusion à la base des modèles génératifs.

De manière générale, nous recherchons des profils à l’interface Physique/ML, aussi bien du côté ML4Physics que Physics4ML.

Formation et compétences requises :

Adresse d’emploi :
LISN
Université Paris-Saclay
1 rue René Thom
91190 Gif-sur-Yvette

Document attaché : 202509091622_CPJ.pdf

Oct
15
Wed
2025
Professeur des Universités «Traitement statistique du signal et des images»
Oct 15 – Oct 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire Informatique et Société Numérique – LS
Durée : PU
Contact : lionel.amodeo@utt.fr
Date limite de publication : 2025-10-15

Contexte :
L’Université de Technologie de Troyes (UTT) recrute un·e Professeur·e des Universités dans le domaine de l’Intelligence Artificielle et du Traitement statistique du signal et des images.

Profil scientifique attendu :
Section CNU: 26ème/27ème/61ème

Fondements statistiques de l’IA
Robustesse, explicabilité
Décision statistique sous incertitude

Recherche :
Le poste est rattaché à l’axe MSAD – Modélisation Stochastique, Apprentissage et Décision de notre UR LIST3N.

Enseignement :
Programmes Ingénieurs et Masters
Mastère Spécialisé® Big Data Engineer
Nouveau Bachelor en Intelligence Artificielle (en partenariat avec le cluster Hi! PARIS).

Projets structurants associés :
Cluster Hi! PARIS – AI for Science, Business & Society
Programme PEA Impact
Université de Technologie Européenne EUt+

Prise de fonction : 1er janvier 2026 à Troyes

Détails et dépôt de candidature :
https://www.utt.fr/carrieres-emplois/poste-d-enseignant-chercheur
Référence : Poste n° 253213 (ODYSSEE)

Sujet :
La recherche, la formation et le transfert de technologie sont les trois missions de l’Université de Technologie de Troyes (UTT). Établissement à la fois École d’Ingénieurs et Université, l’UTT est aujourd’hui parmi les 10 écoles d’ingénieurs les plus importantes en France, avec un rayonnement à l’international reconnu.
Elle forme plus de 3100 étudiants chaque année, de post-bac à bac+8. Ses formations conjuguent excellence et innovation et sont adossées à une recherche de pointe.
En effet l’UTT s’appuie sur ses 5 unités de recherche pour proposer des formations couvrant tout le spectre universitaire : Licence, Master, Ingénieur et Doctorat, des formations courtes professionnalisantes (Diplômes d’Université), des programmes de Mastère spécialisé®, de la VAE et des certifications en langues.
Ces formations apportent aux diplômés de l’UTT les compétences recherchées par les entreprises grâce à une forte proximité avec celles-ci, notamment au travers de sa fondation. Le parcours d’ingénieur en 5 ans, habilité par la CTI, se singularise dans le paysage académique par des parcours individualisés dès la première année, ce qui permet à chaque étudiant d’adapter sa formation à son projet professionnel.

Profil du candidat :
Pour ce poste de Professeur des Universités un investissement équilibré entre les activités de formation, de recherche et un engagement au sein de l’UTT est attendu. La participation à la dynamique de projet font partie des missions.

Enseignement :
La personne recrutée interviendra principalement dans les enseignements en Bachelor IA et Mastère Spécialisé® Expert Big Data Engineer, en particulier ceux liés à l’intelligence artificielle et la Data.
En complément, elle participera aux enseignements du Tronc Commun de l’UTT et en formation Génie industriel dans les domaines des probabilités et des statistiques, sous forme de cours, TD et TP. Elle prendra part à l’encadrement de projets et au suivi pédagogique des étudiants, notamment en apprentissage.
La personne recrutée sera amenée à assumer par ailleurs des responsabilités dans la mise en oeuvre du nouveau Bachelor en IA qui ouvre à l’UTT en 2025, en partenariat avec IPParis, HEC, CNRS, INRIA au sein du cluster à vocation mondiale Hi !Paris.
Une implication dans les tâches collectives de l’établissement ainsi qu’un engagement soutenu dans l’accompagnement des étudiants en alternance sont attendus.

Recherche :
L’Axe Modélisation Stochastique, Apprentissage et Décision (MSAD) mène des travaux reconnus en modélisation probabiliste, estimation, inférence et apprentissage statistique, qui contribuent à la visibilité scientifique du laboratoire LIST3N aux niveaux national et international (cf. Rapport HCERES 2023). Le renforcement de cette expertise par le recrutement d’un PU s’inscrit dans la stratégie de l’axe, qui vise à structurer une activité de recherche sur les fondements statistiques de l’IA, en lien avec la robustesse, la généralisation et la décision sous incertitude.
Ce besoin se justifie d’autant plus que de nombreux travaux de l’Unité de Recherche LIST3N s’appuient sur des cas d’usage critiques (santé, cybersécurité, infrastructures vitales, maintenance industrielle), dans lesquels la maîtrise des outils statistiques est essentielle pour garantir la fiabilité, l’interprétabilité et la transférabilité des modèles d’IA.
Dans une logique de rayonnement institutionnel, elle sera également appelée à travailler pour l’UTT au sein du cluster Hi!Paris, consortium interdisciplinaire de référence dans les domaines de l’intelligence artificielle et des sciences des données. À ce titre, elle contribuera à représenter la stratégie scientifique de l’UTT dans ce cadre partenarial, du cluster. Cette mission de représentation s’inscrira dans la stratégie globale de l’établissement visant à renforcer sa visibilité et son positionnement sur les enjeux liés à l’IA de confiance, à la modélisation sous incertitude et à la décision explicable.

Le poste proposé correspond à un besoin prioritaire de l’axe « Modélisation stochastique, apprentissage et décision » (MSAD) du Laboratoire Informatique et Société́ Numérique (LIST3N). Les travaux de recherche menés au sein de cet axe visent à concevoir des modèles mathématiques innovants, des algorithmes de traitement des données ainsi que des outils d’aide à la décision. Ils reposent sur un socle disciplinaire commun englobant la modélisation stochastique, les méthodes statistiques, les techniques non paramétriques issues de l’apprentissage automatique (Machine Learning et Deep Learning) et l’Intelligence Artificielle (IA), ainsi que la conception de décisions robustes, qu’elles soient distribuées ou collaboratives.
Outre les travaux théoriques et méthodologiques, elle doit être capable de porter des projets collaboratifs structurants institutionnels comme industriels au niveau national (CIFRE, Région, ANR) et européen, notamment dans le cadre de l’Université Européenne de Technologie (Eut+).
Il est attendu de la personne recrutée de jouer un rôle de premier plan dans la thématique du traitement du signal et plus généralement de l’IA avec une composante d’animation et de coordination de projets structurants (existants ou à venir) au sein de l’établissement :
• Pilotage du programme PEA Impact (3 partenaires – UTBM, IMT Albi et Université de Lomé) incluant les volets recherche (10 thèses en cotutelle France/Togo et formation de niveaux Licence et Master),
• Coordination des activités de l’UTT dans le cadre du cluster Hi! PARIS (IP Paris, HEC Paris, Inria Saclay),
• Coordination du Mastère spécialisé Expert Big Data Engineer et du Bachelor en Intelligence Artificielle.
Ce poste s’inscrit dans la volonté du LIST3N de préserver son rayonnement dans un domaine directement en lien avec l’ambition n°3 du plan stratégique UTT 2035.

Formation et compétences requises :
Compétences souhaitées :
▪ Pédagogue ;
▪ Capacité à mener une recherche d’excellence ;
▪ Motivation, travail collaboratif et gestion de groupe ;
▪ Capacité à inscrire des notions fondamentales dans un cadre industriel ou dans une dimension d’ingénierie au sens large ;
▪ Capacité à enseigner en Anglais.

Adresse d’emploi :

Université de Technologie de Troyes, 12 rue Marie Curie à Troyes
LIST3N

Contacts:
Dossier de candidature : recrutement-list3n@utt.fr
Information concernant la recherche : Lionel.amodeo@utt.fr
Information concernant l’enseignement : faicel.hnaien@utt.fr

Document attaché : 202509161941_DRH25_08_PU-Approches Statistiques_IA-VF (1).pdf

Oct
31
Fri
2025
POST DOCTORAL CONCEPTION ET MISE EN PLACE DE SOLUTIONS IA POUR L’OPTIMISATION DES FLUX INDUSTRIELS – H/F
Oct 31 – Nov 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/Innovation

Laboratoire/Entreprise : ISEN Yncrea Ouest Nantes
Durée : 18 mois
Contact : sylvain.lefebvre@isen-ouest.yncrea.fr
Date limite de publication : 2025-10-31

Contexte :
Ce contrat se déroule dans le cadre d’une chaire industrielle créée en 2021 entre l’entreprise ACOME, leader européen dans la création des câbles et le L@bISEN, le laboratoire de recherche de l’Institut Supérieur de l’Electronique et du Numérique (ISEN). Ce travail va être effectué par un(e) post-doctorant(e) ou un(e) ingénieur(e) de recherche, sur une période de de 12 mois, encadré(e) par un enseignant-chercheur de l’ISEN Ouest. Plus largement, la personne recrutée bénéficiera du soutien technique de l’équipe de recherche, équipe composée de 5 E/C et 2 ingénieurs.

Sujet :
En 2019 l’industrie manufacturière était responsable de 19% des déchets non dangereux produits chaque année [1]. A l’ère de la numérisation massive de l’industrie et du développement des technologies d’intelligence artificielle, la mise en place de systèmes et procédures permettant d’automatiser la détection et la correction des défauts de production promet d’impacter significativement les quantités rejetées lors de la production.
La fabrication des câbles combine plusieurs activités complexes de production effectuées par différentes machines dans plusieurs ateliers. L’activité de production de l’entreprise concerne principalement la production de câbles pour différents secteurs industriels et notamment pour le secteur automobile. Il s’agit donc de fabrication de produits en long. Les procédés de fabrication pour ce genre de produits impliquent des flots continus de matières circulant dans et entre les machines. Des changements d’ordre de fabrication, des défauts de qualité des matières premières ou des conditions de production particulières produisent par exemple des produits ne pouvant être commercialisés qui sont alors des sources de coût pour l’entreprise et ont impact environnemental négatif.
Il y a donc un besoin de fournir un outil d’analyse intelligent de plusieurs sources de données sur l’ensemble du processus de production, qui puisse recommander automatiquement aux ingénieurs qualité les paramètres optimaux pour minimiser les déchets.
ACOME et les équipes de l’ISEN ont donc développé un lac de données rassemblant les informations de production et de qualité lors des phases antérieures du projet. L’analyse de ces données est en cours et permettra de faire émerger des recommandations et des outils de suivis appropriés pour les équipes qualité d’ACOME.
Le post doctorant interviendra donc dans le développement de ces outils d’analyse, ce qui pourrait nécessiter la conception de nouvelles approches de recherche, comme : l’analyse de journaux existants et d’identification automatiques des éléments pouvant amener à générer des déchets [1], le développement de méthodes prédictives (IA, Apprentissage Automatique et Profond) pour l’estimation des quantités de déchets. D’autres approches peuvent utiliser des jumeaux numériques [2, 4] et l’apprentissage par renforcement pour virtuellement reproduire les conditions de l’usine et analyser l’impact des variations des paramètres de production. Enfin, les approches visant à optimiser l’ordonnancement des tâches, c’est-à-dire la planification des activités de production, dans le but de minimiser la quantité de déchets produits pourront être explorées [3].

Références :
[1] Duong, L. T., Trave-Massuyes, L., Subias, A., & Roa, N. B. (2021). Assessing product quality from the production process logs. The International Journal of Advanced Manufacturing Technology, 117, 1615-1631.
[2] Howard, D. A., Ma, Z., & Jørgensen, B. N. (2021). Digital Twin Framework for Industrial Production Processes. Energy Informatics, 4(Suppl. 1), P9.
[3] Le Hesran, C., Ladier, A. L., Botta-Genoulaz, V., & Laforest, V. (2019). Operations scheduling for waste minimization: A review. Journal of cleaner production, 206, 211-226.
[4] Botín-Sanabria, D. M., Mihaita, A. S., Peimbert-García, R. E., Ramírez-Moreno, M. A., Ramírez-Mendoza, R. A., & Lozoya-Santos, J. D. J. (2022). Digital twin technology challenges and applications: A comprehensive review. Remote Sensing, 14(6), 1335.

Profil du candidat :
Le candidat devra montrer une solide expertise dans un ou plusieurs des domaines suivants :
– Avoir des prérequis solides en : IA, Statistique, Big Data Analysis, Big Data Science, Machine Learning, Deep Learning, etc.
– Excellente compétence en programmation orientée-objet (Python ou Java, etc.)
– Avoir une expérience dans la proposition, développement, test des modèles de statistique inférentielle, de corrélation, de régression, de classification ou de clustering,
– Maitriser le Français et l’Anglais,
– Mener des recherches de haut-niveau et publier des articles scientifiques dans des conférences et des revues internationales à comité de lecture.

Formation et compétences requises :

Expériences appréciables :
– Une expérience industrielle,
– Connaissance du SQL.

Adresse d’emploi :
ISEN Ouest – Campus de Nantes
33 QUATER Av. du Champ de Manœuvre, 44470 Carquefou

Postdoc position on Anomaly Localization in Temporal Graphs via Auto-Encoders
Oct 31 – Nov 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LISIC – Université du Littoral
Durée : 1 year
Contact : esteban.bautista-ruiz@lip6.fr
Date limite de publication : 2025-10-31

Contexte :
The Industrial Internet of Things (IIoT) is a rapidly evolving paradigm in which industrial sensors, machines, and other instruments are connected to the internet. The data provided by these systems are of great value for automated surveillance and detecting anomalies in them is therefore a task of utmost importance.

Temporal graphs are a very effective model for IIoT data, where nodes represent devices; node features represent their measurements; and time-varying weighted edges capture various types of information. In the initial phase of this project, we have already developed powerful auto-encoder models capable of detecting both temporal and structural anomalies in temporal graphs. Yet, while our models allow us to detect the presence of an anomaly, they are still unable to localise it.

The main goal of this postdoctoral project is therefore to fundamentally extend our temporal graph auto-encoder models beyond anomaly detection to also perform anomaly localization.

Sujet :
The recruited postdoc will have two main goals:

1. Extension of Auto-Encoders for Anomaly Localization.

Our models currently receive a temporal graph as input and produce an anomaly score that is proportional to the severity of its abnormal events. Even though they can be used to localize anomalies by searching for the subset of maximal anomaly score, such an approach is impractical due to the exponential number of subsets to test. We aim to prune-down the search space by properly structuring the auto-encoder’s latent representation. This will require substantial architectural innovation to disentangle the auto-encoder’s structured representation and achieve fine-grained anomaly localization.

2. Application to IIoT logs and measurements.

We aim to evaluate the methodological developments above in real-world IIoT dataset that contain various types of attacks (structural anomalies) and measurement faults (feature anomalies). We aim to explore the advantages of our approach in real-world, potentially on-line, scenarios, such as machine health monitoring, transportation network monitoring, or other use cases that may arise from collaborations with local companies.

Profil du candidat :
We look for highly motivated candidates with relevant experience in anomaly detection, graph machine learning, and/or deep learning. Experience in Python programming, cybersecurity and/or streaming algorithms is a plus. Ideal candidates will have a publication record in selective AI conferences.

Interested candidates are invited to send a cover letter, a detailed CV (with a publication list and the contact details of two references), and their PhD manuscript or a recent paper to:

– esteban.bautista@univ-littoral.fr
– claire.guilloteau@univ-littoral.fr

Applications will be reviewed on a rolling basis until the position is filled.

Formation et compétences requises :

Adresse d’emploi :
Saint-Omer, France

Document attaché : 202509011756_Postdoc___Temporal_Graph_Auto_Encoders____Job_Offer.pdf

Postdoctoral fellowship (2 years) in Machine Learning for Computational Oceanography
Oct 31 – Nov 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IMT Atlantique – Lab-STICC
Durée : 2 years
Contact : lucas.drumetz@imt-atlantique.fr
Date limite de publication : 2025-10-31

Contexte :
IMT Atlantique is looking for a postdoctoral fellow for 2 years starting as soon as possible before December 2025. The position is based on the Brest campus of the school. The fellow will join the Mathematical and Engineering Department of IMT Atlantique, and conduct his research wihtin the Odyssey Team Project studying Ocean Dynamics using data driven approaches, namely ML and AI techniques. The project is a collaboration with the Laboratoire d’Océanographie Physique et Spatiale (LOPS) of Univ. Brest.

Covering more than 70 % of the surface of the Earth, the oceans play key roles for the regulation of the Earth climate (e.g., climate change) as well as for human societies (e.g., marine resources and maritime activities). Despite ever-increasing development of simulation and observation capabilities leading to ocean big data, our ability to understand, reconstruct and forecast ocean dynamics remains limited.

Altimetry data and other geophysical measurements allow an improved understanding of ocean dynamics thanks to the various types of data acquired at the surface and inside of the ocean by different in situ sensors and satellite missions. A large number of different sensors exist, ranging from in situ floats to satellite data. However, even with all these acquisitions, the observation coverage of the 3D ocean remains very sparse, making prediction tasks challenging. In such a setting, it is also crucial to be able to produce uncertainties associated to the predictions, or even propose different evolution scenarios in ambiguous configurations.

Sujet :
In this context, a national initiative within the Programme Prioritaire de Recherche (PPR) Océan et Climat aims at building data challenges centered around the exploitation of such datasets, and easy benchmarking of AI-based solutions [1]. One of those challenges to be launched by the end of 2025 will be centered around the probabilistic short term forecasting of oceanic variables at the global scale in the 3D ocean from sparse measurements. AI-based methods for this type of problems are starting to emerge but are not so mature as e.g. in weather forecasting, and in particular are usually deterministic [2, 3].

Thus, the objective of this postdoctoral project is to develop new AI native models to learn and propagate ocean dynamics, with an emphasis on:
• Handling incomplete and noisy data
• A probabilistic formulation of the problem, i.e. not just learning a mean value over space and time of the
parameters of interest, but also to generate and propagate uncertainties in the relevant oceanic variables over space in time.
• A method that scales to global oceanic states (≈ 10 6 variables or more)

To this end, we propose to merge Gaussian Process (GP) regression [4], which is the basis of most operational techniques for sparse oceanic data interpolation and forecast (Optimal Interpolation) and Machine Deep Learning techniques. These kernel-based methods take advantage of the closed form Gaussian solution of the GP providing uncertainties at little cost. Despite these appealing properties, their performance has been modest because of limited expressivity due to ad-hoc choices of rigid kernels and associated parameters. We propose to enhance this class of probabilistic methods by leveraging flexible AI-based hyperparameterizations of these kernel methods to train data-driven priors for interpolation/forecasting from complete (e.g. simulation) data.

Profil du candidat :
The candidate should hold a PhD in signal or image processing, machine learning, remote sensing or related fields. We are looking for strong candidates with the following skills:
• Machine/Deep learning, signal and image processing, applied mathematics, numerical methods
• Programming in Python (Numpy, scipy, matplotlib…), especially Pytorch
• Inverse problems in imaging, Bayesian Modeling, Kernel Methods
• Curiosity for or experience in applications to quantitative oceanography will be appreciated.

Formation et compétences requises :
PhD in applied math/machine learning/image or signal processing

Adresse d’emploi :
IMT Atlantique Technopôle Brest-Iroise CS 83818 29238 Brest Cedex 3

Document attaché : 202506161220_postdoc_ppr_ocean_climat_fiche.pdf

Postdoctoral position – Development of a digital twin for predicting the movement of marine animals
Oct 31 – Nov 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire Informatique Image Interaction – La Ro
Durée : 24 mois
Contact : marine.gonse@univ-lr.fr
Date limite de publication : 2025-10-31

Contexte :
Coastal ecosystems are highly productive and host essential habitats for numerous marine species, including feeding areas, nurseries, breeding grounds, and migratory corridors. The quality of these habitats determines the renewal and dynamics of marine populations and, more broadly, the productivity of coastal ecosystems. However, these ecosystems are increasingly and durably impacted by the cumulative effects of climate change (e.g., rising temperatures, acidification, stratification of the water column) and by expanding human activities in coastal zones (e.g., maritime traffic, fishing, marine aggregate extraction, pollution, and offshore wind farms).
Given the rapid intensification of these anthropogenic disturbances, it becomes essential to facilitate dialogue between stakeholders (public authorities, scientists, managers, conservationists, and socio-economic actors) to foster the sustainable development of maritime activities and the protection of marine ecosystems. Effective ecosystem management requires decision-support systems capable of guiding spatial planning and conservation strategies. Digital twins represent an innovative approach to these challenges. They rely on continuous coupling between a real system and its virtual representation. The real system, informed by collected data, feeds the model, which can then refine its predictions, simulate alternative scenarios, and provide proactive decision-support tools. In ecology, the development of such systems remains limited due to their complexity and necessitates close collaboration between computer scientists and biologists.
In the marine environment, animal movement monitoring is enabled by biologging, which involves equipping animals with electronic devices that continuously record data (e.g., satellite positions, diving profiles, three-dimensional acceleration, oceanographic variables, physiological parameters). These datasets provide insights into animal movements and their responses to environmental conditions. The miniaturization of these devices has increased both the volume and diversity of data collected, generating analytical challenges that require strong interdisciplinary collaboration.
The aim of this project is to develop a digital twin for monitoring coastal marine populations by integrating biologging data into a digital platform (Urban Coastal Lab La Rochelle, UCLR) to understand and predict spatiotemporal variations in habitat use by marine animals in human-impacted coastal environments. Advanced simulation tools based on artificial intelligence will be developed. The project will focus on the case study of the grey seal (Halichoerus grypus), for which long-term monitoring has been conducted in the English Channel and the Iroise Sea by La Rochelle University (Pelagis/CEBC). Habitat loss due to climate change or anthropogenic activities (e.g. fisheries, maritime traffic) may directly affect grey seal population dynamics by altering foraging efficiency, movement patterns, reproductive success, or pup survival. The digital twin developed as part of this postdoctoral project will allow exploration of grey seal responses to such disturbances and assessment of the consequences of various future scenarios.

Sujet :
The postdoctoral researcher will be responsible for developing the simulation infrastructure of the digital twin. As biologging data are multimodal (differing in nature and acquisition frequencies), advanced methods based on artificial intelligence are required. Specifically, the researcher will:
1. Contextualize movement data with environmental variables (marine and potentially terrestrial) to simulate “possible” seal trajectories under varying conditions. Multiple generative AI models may be developed and compared (e.g., Conditional Generative Adversarial Networks, Transformers).
2. Simulate a large number of possible trajectories from these models in order to generate spatial distribution maps of potential habitats and assess their overlap with anthropogenic activities (e.g., maritime traffic, fisheries). Simulations under alternative climate scenarios will also be performed to identify potential shifts or losses of habitats.
3. Integrate these simulations into the UCLR platform to facilitate visualization of habitats under different scenarios. More information on the UCLR: Urban Coastal Lab La Rochelle.
The candidate will also be expected to propose additional AI-based approaches to generalize the methodology to other biologging data types, thereby enabling application of the digital twin to other marine species such as fish, seabirds, and marine mammals.
Results will be disseminated through publications in international peer-reviewed journals and presentations at scientific conferences.
Supervision will be provided by Dr. Marine Gonse and Dr. Mickael Coustaty (L3i). Interactions are also planned with Dr. Cécile Vincent (Pelagis Observatory), an expert in grey seal tagging and telemetry.

Profil du candidat :
The candidate must hold a PhD in computer science, artificial intelligence, or machine learning, with applications to multimodal data processing. They must demonstrate the ability to conduct independent research and contribute to a multidisciplinary project at the interface of computer science and marine ecology, working collaboratively with both computer scientists and biologists/ecologists.

Technical Skills:
• Multimodal, spatial, and time-series data analysis
• Strong programming skills in multiple languages (Python, Matlab, etc.)
• Proficiency in English (reading, writing, speaking); French desirable but not mandatory
• Interest in environmental sciences
• Experience with digital twin technologies (desirable)

Operational Skills:
• Rigor, autonomy, and initiative
• Ability to work in a multidisciplinary team
• Strong organizational and time-management skills
• Communication skills for diverse audiences
• Critical thinking and curiosity
• Project management and activity planning
• Reporting progress through concise written summaries
• Strong writing and oral presentation skills in English

Formation et compétences requises :

Adresse d’emploi :
La Rochelle Université
Laboratoire Informatique Image Interaction
Av. Michel Crépeau, 17042 La Rochelle

Document attaché : 202510210812_Fiche_poste_postdoc_IA_2026.pdf

Nov
16
Sun
2025
Ingénieure ou Ingénieur de recherche et développement en Imagerie Computationnelle et apprentissage profond
Nov 16 – Nov 17 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IMT Atlantique
Durée : 24 mois
Contact : francois.rousseau@imt-atlantique.fr
Date limite de publication : 2025-11-16

Contexte :
Grande école d’ingénieur généraliste de l’IMT-Institut Mines-Télécom, premier groupe d’écoles d’ingénieurs de France, IMT Atlantique a pour ambition d’accompagner les transitions, de former des ingénieurs responsables et mettre l’excellence scientifique et technique au service de l’enseignement, de la recherche et de l’innovation.

Dans le cadre du projet ICI (Imagerie Computationnelle pour l’IRM ultra-bas champ), qui vise à à développer un système d’imagerie IRM portable et accessible, fondé sur une approche computationnelle et sur l’intelligence artificielle, en collaboration avec le CHU de Brest et l’entreprise Multiwave (Marseille), nous recrutons Ingénieure ou un Ingénieur au sein de notre département Science des données (DSD).

Sujet :
En collaboration avec l’équipe du projet, vous développez et maintenez la chaine logicielle de reconstruction et d’analyse d’images IRM ultra-bas champ (Python, PyTorch). Vous assurez la gestion, le stockage et la diffusion des données IRM acquises sur la machine ultra-bas champ en lien avec les partenaires du projet. Vous accompagnez les chercheurs et ingénieurs dans l’utilisation des outils développés et la valorisation des résultats (documentation, packaging, diffusion open source). Vous contribuez à la coordination technique du projet avec les partenaires industriels (Mutiwave) et académiques (LaTIM, CHU de Brest).

Profil du candidat :
Diplôme Bac + 5 (ingénieur ou master) en informatique, traitement du signal, mathématiques appliquées ou équivalent.

Formation et compétences requises :
· Solide expérience en développement Python et PyTorch (ou frameworks équivalents).
· Bonnes connaissances en traitement et reconstruction d’images, idéalement en imagerie médicale.
· Pratique des outils de gestion de code (Git, GitLab, CI/CD).
· Connaissances des formats et bibliothèques liés à l’IRM (NumPy, NiBabel, TorchIO).
· Autonomie, rigueur et sens du travail collaboratif.

Adresse d’emploi :
IMT Atlantique, Campus de Brest

Informations & contacts :

Sur le contenu du poste : François ROUSSEAU – Enseignant Chercheur : francois.rousseau@imt-atlantique.fr

Sur les aspects administratifs/RH : Fanny BERNARD – Assistante recrutement – fanny.bernard@imt-atlantique.fr

Date limite de candidature : 16/11/2025
Début du contrat souhaité : Janvier 2026
Entretien : Au fil de l’eau

Lien : https://institutminestelecom.recruitee.com/o/ingenieure-ou-ingenieur-de-recherche-et-developpement-en-imagerie-computationnelle-et-apprentissage-profond-pour-lirm-ultra-bas-champ-cdd-24-mois

Post-doctorat en Imagerie Computationnelle pour l’IRM
Nov 16 – Nov 17 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IMT Atlantique
Durée : 24 mois
Contact : francois.rousseau@imt-atlantique.fr
Date limite de publication : 2025-11-16

Contexte :
Grande école d’ingénieur généraliste de l’IMT-Institut Mines-Télécom, premier groupe d’écoles d’ingénieurs de France, IMT Atlantique a pour ambition d’accompagner les transitions, de former des ingénieurs responsables et mettre l’excellence scientifique et technique au service de l’enseignement, de la recherche et de l’innovation.

Le département Science des données (DSD) développe des activités de recherche et d’enseignement dans le domaine interdisciplinaire des sciences des données (« Data Science »), en forte interaction avec des enjeux industriels et sociétaux (santé et environnement). Ses activités de recherche s’inscrivent dans le cadre des laboratoires Lab-STICC (UMR CNRS 6285) et LaTIM (UMR 1101 INSERM).

Le projet ICI (Imagerie Computationnelle pour l’IRM ultra-bas champ) financé par le programme Inria Quadrant, vise à développer un système d’imagerie IRM portable et accessible, fondé sur une approche computationnelle et sur l’intelligence artificielle, en collaboration avec le CHU de Brest et l’entreprise Multiwave (Marseille).

Sujet :
Le projet ICI ambitionne de concevoir une IRM ultra-bas champ portable, permettant de réaliser des examens d’imagerie cérébrale au chevet du patient, notamment pour le suivi du développement cérébral des nouveau-nés prématurés. La post-doctorante ou le post-doctorant participera au développement du logiciel de reconstruction d’images, à la gestion des données expérimentales, à l’exploitation des acquisitions IRM et à la mise en œuvre de pipelines de traitement intégrant des méthodes d’apprentissage profond.

Profil du candidat :
Doctorat en traitement du signal/image, informatique, mathématiques appliquées, ou domaine connexe, obtenu il y a moins de 3 ans.

Formation et compétences requises :
Excellente maîtrise de la programmation en Python et d’un framework d’apprentissage profond, PyTorch de préférence.
Solides connaissances en traitement d’images, en problèmes inverses et en apprentissage automatique (machine learning).
Expérience significative en recherche, démontrée par des publications scientifiques de qualité.

Adresse d’emploi :
IMT Atlantique, Campus de Brest

Informations & contacts :

Sur le contenu du poste : François ROUSSEAU – Enseignant Chercheur : francois.rousseau@imt-atlantique.fr

Sur les aspects administratifs/RH : Fanny BERNARD – Assistante recrutement : fanny.bernard@imt-atlantique.fr

Date limite de candidature : 16/11/2025

Début du contrat souhaité : Janvier 2026

Entretien : Au fil de l’eau

Lien : https://institutminestelecom.recruitee.com/o/post-doctorat-en-imagerie-computationnelle-pour-lirm-ici-imagerie-computationnelle-pour-lirm-ultra-bas-champ-cdd-24-mois

Dec
31
Wed
2025
2-Year Postdoc | AI for Air Quality and Toxicity Thresholds
Dec 31 2025 – Jan 1 2026 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : CRISTAL Lab – UMR CNRS 9189/University of Lille
Durée : 24 months – Ideally
Contact : hayfa.zgaya-biau@univ-lille.fr
Date limite de publication : 2025-12-31

Contexte :
The IARISQ project, funded by the French National Research Agency (ANR), aims to develop advanced artificial intelligence (AI) models to predict the toxicity thresholds of airborne particles, taking into account their physico-chemical properties and environmental dynamics. The project combines AI, probabilistic modeling, fuzzy logic, and explainable AI (XAI) to build a robust decision support system for public health and environmental risk assessment.

Sujet :
We are seeking a highly motivated postdoctoral researcher with strong expertise in machine learning and data science. The selected candidate will contribute to the design, implementation, and evaluation of predictive AI models for toxicity thresholds, with a focus on:
– Developing deep learning models (e.g., GANs, Transformers, TabNet)
– Managing uncertainty with probabilistic (e.g., GPR, Bayesian Neural Networks) and fuzzy logic approaches (e.g., Interval Type-2 Fuzzy Logic)
– Applying explainable AI techniques (e.g., SHAP, LIME, GrC) to identify influential variables
– Collaborating with environmental scientists and air quality experts
– Preparing scientific publications and sharing code (GitHub, open-source)

Related Publications
The candidate will contribute to a project with a strong publication record in top-tier journals and conferences. Recent related publications include:
1. Idriss Jairi, Sarah Ben-Othman, Ludivine Canivet, Hayfa Zgaya-Biau, Explainable-based approach for the air quality classification on the granular computing rule extraction technique, Engineering Applications of Artificial Intelligence, 2024. (Q1, IF: 7.5, AI/Software) https://doi.org/10.1016/j.engappai.2024.108096
2. Idriss Jairi, Sarah Ben-Othman, Ludivine Canivet, Hayfa Zgaya-Biau, Enhancing Air Pollution Prediction: A Neural Transfer Learning Approach across Different Air Pollutants, Environmental Technology & Innovation, 2024. (Q1, IF: 6.7, Environmental Engineering) https://doi.org/10.1016/j.eti.2024.103793
3. Idriss Jairi, Amelle Rekbi, Sarah Ben-Othman, Slim Hammadi, Ludivine Canivet, Hayfa Zgaya-Biau, Enhancing particulate matter risk assessment with novel machine learning-driven toxicity threshold prediction, Engineering Applications of Artificial Intelligence, 2025. (Q1, IF: 7.5, AI/Software) https://doi.org/10.1016/j.engappai.2024.109531

Conference
Doctoral Consortium Participant, ECAI 2024 – European Conference on Artificial Intelligence, Santiago de Compostela, Spain – October 2024. https://anaellewilczynski.pages.centralesupelec.fr/ecai-2024-dc/accepted.html

Profil du candidat :
PhD in Artificial Intelligence, Machine Learning, Data Science, or a closely related field.
– Strong experience in developing and evaluating deep learning models (e.g., GANs, Transformers, LSTM).
– Solid background in uncertainty modeling, explainable AI (XAI), or hybrid AI approaches is a plus.
– Excellent programming skills (Python, PyTorch or TensorFlow).
– Proven ability to conduct high-quality research, with publications in top-tier conferences or journals.
– Autonomy, creativity, and ability to work in a multidisciplinary environment (AI + environment + public health).
– Strong communication skills (oral and written) in English.

Formation et compétences requises :
PhD in computer Science – Artificial Intelligence

Adresse d’emploi :
https://www.cristal.univ-lille.fr

UMR CRIStAL
Université de Lille – Campus scientifique
Bâtiment ESPRIT
Avenue Henri Poincaré
59655 Villeneuve d’Ascq

Offres de thèses

Jun
15
Sun
2025
Analyse Spectrale des Graphes de Barab ́asi-Albert par les Matrices Al ́eatoires et Applications `a la M ́edecine Personnalis ́ee en Radiologie Mammaire
Jun 15 – Jun 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : LIST3N/UTT et Université de Sfax
Durée : 36 mois
Contact : malika.kharouf@utt.fr
Date limite de publication : 2025-06-15

Contexte :
Cette thèse vise à développer une approche d’analyse spectrale des graphes de Barabasi- Albert (BA) à l’aide de la théorie des matrices aléatoires et à appliquer ces techniques à la médecine personnalisée en radiologie mammaire. L’objectif est d’exploiter les caractéristiques spectrales des réseaux complexes pour améliorer la détection et la classification des anomalies en imagerie médicale, notamment dans le cadre du diagnostic du cancer du sein.

Sujet :
Nous examinerons les propriétés spectrales des graphes BA afin d’extraire des motifs exploitables pour l’analyse des images médicales. La distribution des valeurs propres des matrices d’adjacence sera explorée afin de détecter les schémas structurels caractéristiques des graphes, en mettant en évidence les réseaux fortement connectés susceptibles de refléter des anomalies.
Lien entre signatures spectrales et anomalies médicales:
L’utilisation de la théorie des matrices aléatoires nous permettra de modéliser et de mieux comprendre les variations spectrales associées aux différents types de tumeurs mammaires. En analysant les perturbations dans la structure spectrale des graphes, nous serons en mesure de détecter des motifs anormaux liés aux pathologies médicales.
Développement d’un modèle de fusion multimodale dynamique:
En combinant les informations extraites des graphes avec des techniques avancées d’apprentissage automatique, nous proposerons un système de fusion multimodale adaptatif, capable d’ajuster dynamiquement les données en fonction de leur pertinence clinique. Ce système exploitera les propriétés spectrales pour réduire la redondance et concentrer l’analyse sur
les modalités les plus informatives.
Techniques de détection et d’intelligence artificielle:
Nous utiliserons des techniques de détection d’anomalies basées sur l’analyse spectrale et l’intelligence artificielle, telles que les autoencodeurs variationnels et les réseaux neuronaux profonds. Ces approches permettront d’améliorer la capacité du modèle à différencier les images normales et anormales, en exploitant les signatures spectrales extraites.
Validation clinique du modèle:
Notre approche sera validée sur des données hospitalières réelles issues du CHU de Sfax, permettant une vérification rigoureuse des performances du modèle et de son utilité clinique. L’impact de notre modèle sur l’optimisation des protocoles de diagnostic sera également examiné.

Profil du candidat :
Master 2 Mathématiques Appliquées, spécialisé en Statistique, ou formation équivalente de type école d’ingénieurs. Des compétences en informatique et logiciel de statistique sont fortement souhaitées (Python et/ou R).

Formation et compétences requises :
Master 2 Statistique ou équivalent école d’ingénieurs

Adresse d’emploi :
Université de technologie de Troyes et université de Sfax

Document attaché : 202505160654_ThèseStat-Cotutelle-UTT-Sfax.pdf

Learning-based Module for Neighborhood Design to Solve Discrete Graphical Models
Jun 15 – Jun 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : GREYC UMR 6072
Durée : 36 mois
Contact : abdelkader.ouali@unicaen.fr
Date limite de publication : 2025-06-15

Contexte :
Cf. document attaché

Sujet :
Cf. document attaché

Profil du candidat :
Cf. document attaché

Formation et compétences requises :
Cf. document attaché

Adresse d’emploi :
Université de Caen Normandie (Caen, Normandy, France: GREYC, Campus Côte de Nacre).

Document attaché : 202505060848_GMLAS-PhD-25.pdf

Jun
24
Tue
2025
High-dimensional learning for automatic and robust target detection in hyperspectral imagery
Jun 24 – Jun 25 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIST3N
Durée : 3 ans
Contact : alexandre.baussard@utt.fr
Date limite de publication : 2025-06-24

Contexte :

Sujet :
voir le descriptif de la thèse “High-dimensional learning for automatic and robust target detection in hyperspectral imagery” dans le fichier attaché

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
Université de Technologie de Troyes

Document attaché : 202504241217_PhD_target_detection_hyperspectral_imagery.pdf

Jun
26
Thu
2025
Machine learning-assisted discovery and study of solar structure behaviors / Découverte et étude assistées par apprentissage automatique des comportements des structures solaires
Jun 26 – Jun 27 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Laboratoire d’Informatiques et des Systèmes, Univ
Durée : 36 mois
Contact : adeline.paiement@lis-lab.fr
Date limite de publication : 2025-06-26

Contexte :
The PhD will be supervised by Adeline Paiement at Laboratoire d’Informatique et des Systèmes (LIS). This project is part of an existing and very active partnership with the LESIA laboratory at Paris Observatory.

The PhD will take place in the LIS Toulon laboratory. The PhD student will have access to the computing resources of LIS, and in particular to its high-performance computing cluster. The PhD will be integrated into and will complement the ANR JCJC PRESAGE (PREdicting Solar Activity using machine learning on heteroGEneous data) project (Oct. 2021 – Feb. 2027, partnership with Jean Aboudarham at LESIA). It will exploit and adapt the machine learning methods being developed within PRESAGE for the analysis of multimodal observations.

**************************
La thèse sera dirigée par Adeline Paiement, MdC HDR au Laboratoire d’Informatique et des Systèmes (LIS). Ce projet s’inscrit dans un partenariat existant et très actif avec le laboratoire LESIA à l’Observatoire de Paris.

La thèse se déroulera dans le laboratoire LIS Toulon. Le doctorant aura accès aux ressources de calcul du LIS, et notamment à son cluster calcul haute performance. La thèse s’intégrera dans et complétera le projet ANR JCJC PRESAGE (PREdicting Solar Activity using machine learning on hétéroGEneous data) (oct. 2021 – fév. 2027, partenariat avec Jean Aboudarham au LESIA). Elle exploitera et adaptera les méthodes de machine learning en cours de développement dans le cadre de PRESAGE pour l’analyse des observations multimodales.

Sujet :
Solar activity events appear to be strongly associated with the evolution of solar structures, which are objects in the solar atmosphere that differ from the “quiet” atmosphere and appear, evolve, and disappear over a period of a few days to months. The exact mechanisms of solar activity and the links between solar activity events and solar structures are still poorly understood.

We hypothesize that solar structures can have typical behaviors, both isolated and in interaction with other structures and with solar activity events. Such patterns of behavior have never been researched. Our goal is to discover them, if they exist, using machine learning methods.

Solar structures are traditionally studied individually and using only one observation modality at a time. This greatly limits the possibilities of discovering behavior patterns. Using machine learning tools, this project will carry out the first longitudinal study of a large number of structures. In addition, it will co-exploit multimodal and heterogeneous observations of the sun that reveal different facets of the Sun.

The expected results of this exploratory project are: 1) to obtain information on the existence of typical behaviors for solar structures, 2) to model these behaviors and provide a physical interpretation, 3) to link behaviors and their anomalies to solar activity events. These behavioral models would open up the prospect of a better understanding and prediction of solar activity events, with applications in particular for space weather.

**************************
Les événements d’activité solaire semblent être fortement associés à l’évolution des structures solaires, qui sont des objets de l’atmosphère solaire qui diffèrent de l’atmosphère « calme » et qui apparaissent, évoluent et disparaissent sur une période de quelques jours à mois. Les mécanismes exacts de l’activité solaire et les liens entre les événements d’activité solaire et les structures solaires sont encore mal compris.

Nous émettons l’hypothèse que les structures solaires peuvent avoir des comportements types, à la fois isolés et en interaction avec d’autres structures et avec les événements d’activité solaire. De tels modèles de comportement n’ont jamais été recherchés. Notre objectif est de les découvrir, s’ils existent, à l’aide de méthodes d’apprentissage automatique.

Les structures solaires sont traditionnellement étudiées individuellement et à l’aide d’une seule modalité d’observation à la fois. Cela limite grandement les possibilités de découverte de comportements. Grâce aux outils d’apprentissage automatique, ce projet va réaliser la première étude longitudinale d’un grand nombre de structures. De plus, il co-exploitera des observations multimodales et hétérogènes du soleil qui en révèlent différentes facettes.

Les résultats attendus de ce projet exploratoire sont : 1) obtenir des informations sur l’existence de comportements typiques pour les structures solaires, 2) modéliser ces comportements et en fournir une interprétation physique, 3) relier les comportements et leurs anomalies à des événements d’activité solaire. Ces modèles de comportement ouvriraient la perspective d’une meilleure compréhension et prédiction des événements d’activité solaire, avec des applications notamment pour la météorologie spatiale.

Profil du candidat :
MSc in computer science, data science, or physics, with strong experience in programming. Experience in machine learning and/or solar physics would be appreciated.

**************************
Master 2 ou diplôme d’ingénieur en informatique, science des données, ou physique, avec expérience forte en programmation exigée, et expérience souhaitable en apprentissage automatique et/ou physique solaire.

Formation et compétences requises :

Adresse d’emploi :
Laboratoire LIS, Université de Toulon, campus de La Garde
Av. de l’Université
83130 La Garde

Document attaché : 202506132029_announcement.pdf

Multi-modal explainable machine learning for exploring consciousness recovery of comatose patients
Jun 26 – Jun 27 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIRIS
Durée : 3 ans
Contact : stefan.duffner@insa-lyon.fr
Date limite de publication : 2025-06-26

Contexte :

Sujet :
Multi-modal explainable machine learning for exploring consciousness recovery of comatose patients

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
LIRIS INSA Lyon et CRNL, Université Lyon 1

Document attaché : 202506122101_Fiche_de_poste_agoracoma_phd.pdf

Jun
30
Mon
2025
Apprentissage profond pour la prédiction des interactions non-covalentes entre molécules
Jun 30 – Jul 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : GREYC (Caen) ou CARMeN(Rouen) ,à discuter avec le
Durée : 3 ans
Contact : luc.brun@ensicaen.fr
Date limite de publication : 2025-06-30

Contexte :
Les laboratoires GREYC (Informatique) et CARMeN (chimie théorique) collaborent dans le cadre d’une bourse de thèse CNRS entre les instituts de chimie et d’informatique, L’accueil principal du doctorant pourra être discuté avec ce dernier la thèse se déroulant de toute façon dans le cadre d’une collaboration étroite entre les deux laboratoires. La bourse de thèse permet de financer outre le salaire du doctorant, un certain nombre de frais annexes tels que des déplacements.

Sujet :
La prédiction de liaisons non covalentes dans une molécule est un processus complexe qui nécessite de calculer l’évolution de la position de chacun des atomes des celle-ci au cours du temps. Ce processus peut être effectué à l’aide de logiciel de chimie quantique très coûteux en calcul, ce qui limite ce type de prédiction à des jeux réduits de petites molécules.

L’objet de la thèse est de concevoir des méthodes de prédiction plus efficace en remplaçant l’étape de simulation par une étape d’apprentissage à l’aide d’apprentissage profond sur graphes.

Profil du candidat :
Diplômé d’un diplôme d’ingénieur ou d’un master en informatique, l’étudiant doit être à l’aise en programmation python et dans la lecture d’articles avec un contenu scientifique. Il devra également être autonome et approfondir de lui-même les pistes de recherche qui lui seront indiquées. On s’attend à ce qu’il soit force de proposition au terme de la première année de thèse.

Formation et compétences requises :
Diplômé d’un diplôme d’ingénieur ou de master en Informatique avec une spécialisation en apprentissage profond. Des compétences en graphes et des bases en chimie seraient appréciées sans être des prérequis.

Adresse d’emploi :
GREYC
6 boulevard du Maréchal Juin,
14050 Caen

ou

Laboratoire COBRA
Bâtiment IRCOF – 1, rue Tesnière
76821 Mont-Saint-Aignan cedex

À discuter avec l’étudiant

Document attaché : 202504031311_these_rouen.pdf

Bayesian Estimate of Galaxy Cluster Masses for Improved Cosmological Parameter Inference
Jun 30 – Jul 1 all-day

Offre en lien avec l’Action/le Réseau : DatAstro/Doctorants

Laboratoire/Entreprise : CRIStAL / Univ. Lille
Durée : 36 months
Contact : jenny.sorce@univ-lille.fr
Date limite de publication : 2025-06-30

Contexte :
This PhD thesis proposal focuses on improving galaxy cluster mass estimation to enhance cosmological parameter inference, in order to address critical challenges such as the S8 cosmological parameter discrepancy. By leveraging multi-wavelength observations, advanced statistical techniques including Bayesian inference and machine learning to solve this inverse problem, the project aims to refine relations between the cluster mass and their observable properties, reduce data dimensionality, and efficiently process large datasets. Anticipated outcomes include innovative Bayesian hierarchical models, optimized data reduction algorithms, and a robust inference pipeline for generating a high-fidelity galaxy cluster mass catalog towards testing cosmological models.

Sujet :
The standard cosmological model successfully describes the Universe’s large-scale structure and evolution. Observational evidence, including the cosmic microwave background (CMB) and the hierarchical distribution of galaxies in the cosmic web, provides strong support for this model. These data suggest that dark matter and dark energy dominate the Universe, together constituting approximately 95% of its total content.
Despite its success, this model faces challenges. For instance, the value derived for the S8 parameter, which characterizes the matter distribution on certain scales, differs by three standard deviations when using galaxy cluster counts instead of CMB observations. Resolving this tension is critical to determine whether new physics theories are required, or systematic errors in data analysis pipelines need to be accounted for.
Galaxy clusters are a key tool to address these challenges. As the largest gravitationally bound structures in the Universe, their number and masses are closely related to the underlying cosmology. Accurately estimating their masses and number across diverse environments and redshifts is essential to test the standard model and refine our understanding of the Universe.
This PhD project focuses on developing Bayesian hierarchical models to improve the estimation of galaxy cluster masses. By leveraging multi-wavelength observations, advanced data reduction, and machine learning techniques, this research will provide more precise mass estimates, refine scaling relations, and facilitate the inference of cosmological parameters from large datasets.

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
UMR CRIStAL
Université de Lille – Campus scientifique
Bâtiment ESPRIT
Avenue Henri Poincaré
59655 Villeneuve d’Ascq

Document attaché : 202503181504_main.pdf

Offre de thèse – Fact-checking multimédia, multimodal et explicable
Jun 30 – Jul 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIFAT (Laboratoire d’Informatique Fondamentale et
Durée : 3 ans
Contact : frederic.rayar@univ-tours.fr
Date limite de publication : 2025-06-30

Contexte :
Cette offre de thèse s’inscrit dans le cadre du projet « Fact Checking » mené depuis 2021 entre le laboratoire LIFAT et l’équipe PRIM (chercheurs en Science de l’Information et de la Communication). Le fact checking, ou vérification de fait, consiste à vérifier la véracité des faits présentés dans les médias par des personnalités publiques ou autres organisations.

De nombreux travaux de recherches ont été et sont en train d’être menéspour répondre à l’enjeu majeur de la désinformation, notamment depuis l’avènement des technologies de deep-fake et d’IA génératives. Ce phénomène de désinformation massive est observable dans plusieurs domaines : on peut citer en particulier la sphère politique (« political discourse »), le changement climatique ou encore le domaine de santé (« COVID-19 misinformation »).

Cette thèse vise à la conception et à l’évaluation de nouvelles techniques de détection multimodale (vidéo, image, audio, texte) dans du contenu multimédia (vidéo, audio).

Sujet :
Cette thèse vise à la conception et à l’évaluation de nouvelles techniques de détection multimodale (vidéo, image, audio, texte) dans du contenu multimédia (vidéo, audio).

Pour ce faire, la thèse explorera l’utilisation de concepts d’IA à différents niveaux « Audio-visual Active Speaker identification » (ASD), « Multimodal Named Entity recognition » (MNER), « Retrieval-Augmented Generation » (RAG), etc., et l’exploitation d’une base de données de fait vérifiés existante (base de données issue de travaux précédents ou benchmark existants).

Par ailleurs, compte-tenu de l’impact sociétal de ces travaux, un fort accent sera mis sur l’explicabilité des algorithmes multimodaux proposés, en agrégant différentes solutions : récupération d’information tierces via la recherche d’information, génération textuelle, visualisation d’élément saillant dans les images/vidéos, isolation des séquences d’intérêt dans les pistes audio/vidéos, etc.

Enfin, durant la réalisation de ces travaux de recherche, il s’agira aussi de tenir compte des verrous théoriques et empiriques de l’acception des citoyens d’un tel outil via les notions d’interactions avec les outils développés, et de visualisation interactive et d’ergonomie. Ces aspects seront abordés via une collaboration avec des chercheurs en sciences de l’information et de la communication ou des journalistes et fact-checkers.

Profil du candidat :
M2 en informatique ou diplôme d’ingénieur
Bonnes connaissances en Machine Learning et Intelligence Artificielle
Bonnes connaissances en programmation indispensables
Des compétences en développement web sont souhaitables
Bonnes capacités de communication et de rédaction, en particulier en anglais

Formation et compétences requises :

Adresse d’emploi :
Laboratoire d’Informatique LIFAT
Équipe RFAI (Reconnaissance des Formes et Analyse d’Images)
64 avenue Jean Portalis – 37200 – Tours

Document attaché : 202502101508_2025_PhD_lifat_v3.pdf

PhD Offer on GNN and XAI in Caen (GREYC Lab)
Jun 30 – Jul 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : GREYC UMR 6072
Durée : 3 ans
Contact : bruno.cremilleux@unicaen.fr
Date limite de publication : 2025-06-30

Contexte :
Cf. document attaché

Sujet :
Cf. document attaché

Profil du candidat :
Cf. document attaché

Formation et compétences requises :
Cf. document attaché

Adresse d’emploi :
Université de Caen Normandie (Caen, Normandy, France: GREYC, Campus Côte de Nacre) :

Document attaché : 202504291608_TheseXAIforGraphDataAugmentation_EpitaGREYC.pdf

PhD Offer on Pattern Sampling Under User Constraints in Caen (GREYC Lab)
Jun 30 – Jul 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : GREYC UMR 6072
Durée : 36 mois
Contact : abdelkader.ouali@unicaen.fr
Date limite de publication : 2025-06-30

Contexte :
Cf. document attaché.
See attached document.

Sujet :
Cf. document attaché.
See attached document.

Profil du candidat :
Cf. document attaché.
See attached document.

Formation et compétences requises :
Cf. document attaché.
See attached document.

Adresse d’emploi :
Université de Caen Normandie (Caen, Normandy, France: GREYC, Campus Côte de Nacre).

Document attaché : 202505042125_FIDD-PhD-25.pdf

PhD position on privacy, data generation and formal methods (IRISA, France)
Jun 30 – Jul 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRISA
Durée : 36 months
Contact : tristan.allard@irisa.fr
Date limite de publication : 2025-06-30

Contexte :
This PhD offer is funded by the PEPR Cybersecurity IPoP project (https://files.inria.fr/ipop/) and proposed by the Security and Privacy team (SPICY, https://www-spicy.irisa.fr/) from the IRISA institute (https://www.irisa.fr/en) in Rennes, France. The work will be supervised jointly by Tristan Allard (PhD, HDR, https://people.irisa.fr/Tristan.Allard/) associate professor at the University of Rennes, expert in privacy in data intensive systems, and Barbara FILA (PhD, HDR, http://people.irisa.fr/Barbara.Fila/), associate professor at INSA Rennes, expert in formal methods for risk assessment.

The successful candidate will be working at IRISA — the largest French research laboratory in the field of computer science and information technologies (more than 850 people). IRISA provides an exciting environment where French and international researchers perform cutting edge scientific activities in all domains of computer science.

Rennes is located in the West part of France in the beautiful region of Brittany. From Rennes, you can reach the sea side in about 45~minutes by car and Paris center in about 90~minutes by train. Rennes is a nice and vibrant student-friendly city. It is often ranked as one of the best student cities in France. Rennes is known and appreciated for its academic excellence, especially in the field of cybersecurity, its professional landmark, the quality of its student life, the affordability of its housing offer, its rich cultural life, and much more.

Sujet :
Context and goal

Health data, social networks, electricity consumption… Vast quantities of personal data are collected today by private companies or public organizations. Various legal, monetary, or visibility incentives push data holders to envision sharing versions of the collected datasets that provide both statistical utility and privacy guarantees. Indeed, sharing data at large, e.g., as open data, without jeopardizing privacy, is expected to bring strong benefits (strengthening, e.g., scientific studies, innovation, public policies).

Synthetic data generation is a promising approach. First, synthetic data generation algorithms aim at generating datasets that are as close as possible to the original datasets. Either synthetically generated data or the generative models trained over the original data could be shared for supporting elaborate data analysis. Second, substantial progress has been made during the last decade about the privacy guarantees of synthetic data generation algorithms. For example, there exist today synthetic data generation algorithms that satisfy variants of differential privacy, one of the most prominent family of privacy models [2].

However security is a constant race between the attackers and the defenders. A large number of attacks exists and keeps growing [5]. As a result, because of the complex environment in which synthetic data generation takes place (e.g., utility needs, diversity of information sources, diversity of data generation algorithms), analyzing the risks remains hazardous even when strong privacy-preserving techniques are used.

The main goal of this PhD thesis is to design a formal method based approach allowing data holders to analyze the risks related to their synthetic data publication practices.

The main tasks of the PhD student will be to:
– Study the state-of-the-art about attacks on synthetic data generation algorithms (e.g., membership inference attacks [4, 6]) and about relevant formal methods (e.g., attack tree based risk analysis models [3]). We will focus on tabular data and time series.
– Model the full synthetic data generation environment. Most especially, this includes capturing the attackers’ capabilities (e.g., goals [5], background knowledge, computational resources, sequences of steps), the relationships between attackers, the sources of auxiliary information, and the data sharing practices.
– Design efficient algorithms for finding the attacks that illustrate privacy risks, implement them, and evaluate their performance.

In addition to the core tasks of the project, the successful candidate will also contribute to the organisation of competitions where the privacy guarantees of synthetic data generation algorithms are challenged [1] (see, e.g., the Snake1 challenge (https://snake-challenge.github.io)).

References

[1] Tristan Allard, Louis Béziaud, and Sébastien Gambs. Snake challenge: Sanitization algorithms under attack. Proceedings of the 32nd ACM International Conference on Information and Knowledge Management (CIKM ’23), 2023.

[2] Damien Desfontaines and Balázs Pejó. Sok: Differential privacies. Proceedings on Privacy Enhancing Technologies, 2020(2):288–313, 2020.

[3] Barbara Kordy (Fila), Ludovic Piètre-Cambacédès, and Patrick Schweitzer. Dag-based attack and defense modeling: Don’t miss the forest for the attack trees. Comput. Sci. Rev., 13-14:1–38, 2014.

[4] Hongsheng Hu, Zoran A. Salcic, Lichao Sun, Gillian Dobbie, P. Yu, and Xuyun Zhang. Membership inference
attacks on machine learning: A survey. ACM Computing Surveys (CSUR), 54:1 – 37, 2021.

[5] Ahmed Salem, Giovanni Cherubin, David Evans, Boris Köpf, Andrew Paverd, Anshuman Suri, Shruti Tople, and Santiago Zanella-Béguelin. Sok: Let the privacy games begin! a unified treatment of data inference privacy in machine learning. In Proceedings of the 2023 IEEE Symposium on Security and Privacy (S&P ’23), pages 327–345, 2023.

[6] Antonin Voyez, Tristan Allard, Gildas Avoine, Pierre Cauchois, Élisa Fromont, and Matthieu Simonin. Membership inference attacks on aggregated time series with linear programming. In Proceedings of the 19th International Conference on Security and Cryptography (SECRYPT ’22), 2022.

Profil du candidat :
– The candidate must have obtained, or be about to obtain, a master degree in computer science or in a related field.
– The candidate must be curious, autonomous, and rigorous.
– The candidate must be able to communicate in English (oral and written). The knowledge of the French language is not required.
– The candidate must have a strong interest in cybersecurity.
– Skills in machine learning and/or formal methods will be appreciated.

Formation et compétences requises :

Adresse d’emploi :
IRISA Rennes
Campus de Beaulieu, 263 avenue du Général Leclerc
35042 RENNES cedex

Document attaché : 202501201621_PhD_thesis_IRISA_France.pdf

Jul
31
Thu
2025
Conscience de groupe à l’ère de l’IA : Modèles et outils pour le maintien de la cohésion et la prévention du désengagement dans les équipes en télétravail
Jul 31 – Aug 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Centre de Recherche en Informatique, Université Pa
Durée : 3 ans
Contact : Manuele.Kirsch-Pinheiro@univ-paris1.fr
Date limite de publication : 2025-07-31

Contexte :
La généralisation du télétravail a profondément transformé les modes de collaboration en entreprise, entraînant une multiplication des plateformes numériques (Teams, Zoom, Jira, etc.) et une dispersion des informations. Cette évolution s’accompagne de nouveaux défis : perte de cohésion, isolement, difficulté à suivre l’état d’avancement des projets, et augmentation du risque de désengagement ou de détresse psychologique chez les collaborateurs.

Sujet :
La thèse se positionne au carrefour de deux domaines de recherche : le travail coopératif assisté par ordinateur (TCAO ou CSCW en anglais), avec sa notion de conscience de groupe (group awareness), et l’Intelligence Artificielle, et notamment ses techniques de Machine Learning.

La thèse vise à :
• Proposer des modèles d’IA et de Machine Learning pour extraire, à partir des traces d’activités multi-plateformes, les informations pertinentes à la conscience de groupe (group awareness) ;
• Détecter précocement les signes de désengagement ou de détresse chez les membres d’une équipe ;
• Concevoir des mécanismes personnalisés de diffusion d’information et d’alerte, respectant la vie privée (RGPD, AI Act), pour renforcer la cohésion et le bien-être des équipes ;
• Explorer des approches de Federated Learning et d’apprentissage incrémental pour l’adaptation des modèles à chaque contexte collaboratif.

Profil du candidat :
• Master en informatique avec spécialisation data science, IA, ou domaine connexe.
• Intérêt pour les problématiques humaines et organisationnelles du travail collaboratif.
• Esprit d’initiative, autonomie, et capacité à travailler en équipe interdisciplinaire.

Formation et compétences requises :
• Solide maîtrise en Machine Learning, traitement de données, et systèmes distribués.
• Des connaissances ou expériences précédentes dans le domaine du CSCW seraient appréciées.
• Bonnes compétences en communication scientifique (français et anglais).

Adresse d’emploi :
Centre de Recherche en Informatique, Université Paris 1 Panthéon-Sorbonne, Centre Pierre Mendes-France (Paris 13ème)

Document attaché : 202506301529_PropositionSujetThese-annonce.pdf

Aug
31
Sun
2025
Thèse en intelligence artificielle appliquée au traitement du cancer — Reims
Aug 31 – Sep 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CReSTIC / Institut Godinot / AQUILAB
Durée : 36 mois
Contact : Arnaud.BEDDOK@reims.unicancer.fr
Date limite de publication : 2025-08-31

Contexte :

Sujet :
Cf. document pdf.

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
CReSTIC
Université de Reims Champagne Ardenne

Document attaché : 202505121850_Appel_candidature_20250512.pdf

Oct
15
Wed
2025
Indexing and retrieval of visual contents in 3D point clouds at large scale – Application to spatialization
Oct 15 – Oct 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LASTIG, IGN / Gustave Eiffel University
Durée : 3 years
Contact : valerie.gouet@ign.fr
Date limite de publication : 2025-10-15

Contexte :
PhD offer
Indexing and retrieval of visual contents in 3D point clouds at large scale – Application to spatialization
LASTIG Lab / IGN and Gustave Eiffel University / Paris great area, France

All the details: https://agape-anr.github.io/docs/annonce_these_loc2D3D-EN.pdf

Sujet :
At a glance

The thesis project focuses on the spatialization of visual contents (both image and video contents) by the exploitation of 3D references at large scale. Without any a priori about geolocation, the problem is tackled by the retrieval of the most similar elements in the geolocalized reference. As visual content, we consider old photographs and footages made available from cultural institutions, and as 3D reference we exploit LiDAR data mapping the French territory, made available at the country scale by the French mapping agency (IGN). This PhD thesis has the ambition to address two challenging scientific problems: on the one hand, the description, matching and indexing of 2D(+t) and 3D data in a multi-date context where the scene has evolved over time, and on the other hand, the fast retrieval in very large volumes of data. The work will be carried out within the framework of the multidisciplinary project AGAPE, which addresses the discoverability and investigation in spatial iconographic heritage, and gathers seven leading partners specialized in visual and multimodal AI, Multimedia and Human-Computer Interaction as well as in Archives, History and Media.

Keywords

Computer Vision, Artificial Intelligence, Indexing and Retrieval, Vision Languages Models, Image analysis, 3D Point Clouds, Big Data, Geolocalization, Cultural Heritage.

Profil du candidat :
How to apply

Before July 14, 2025, please send to both contacts in a single PDF file the following documents: o A detailed CV
o A topic-focused cover letter
o Grades and ranks over the last 3 years of study
o The contact details of 2 referents who can recommend you

Candidatures which do not respect these instructions will not be considered.

Auditions will be conducted during period July 15-23; decision released no later than July 25.

Formation et compétences requises :

Adresse d’emploi :
IGN-ENSG, Université Gustave Eiffel
6-8 Av. Blaise Pascal, 77420 Champs-sur-Marne
FRANCE

Document attaché : 202506021533_annonce_these_loc2D3D-EN.pdf

Oct
31
Fri
2025
Combinaison LLM et GNN pour la fusion de représentations multimodales : Application à l’extraction d’information dans les données semi-structurées
Oct 31 – Nov 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LISTIC – Université Savoie Mont-Blanc
Durée : 3 ans
Contact : jean-yves.ramel@univ-smb.fr
Date limite de publication : 2025-10-31

Contexte :
La thèse sera encadrée par David Télisson et JY Ramel
Au sein de l Equipe ReGards du LISTIC,
Dans le cadre de la chaire MIAI FONDUE (https://miai-cluster.univ-grenoble-alpes.fr/)

Sujet :
Combinaison LLM et GNN pour la fusion de représentations multimodales : Application à l’extraction d’information dans les données semi-structurées liées aux activités humaines ou professionnelles.

Détails: https://www.univ-smb.fr/listic/wp-content/uploads/sites/66/2025/09/these2025fondue.pdf

Profil du candidat :
Master en informatique, data science, intelligence artificielle,

Formation et compétences requises :
– Compétences solides en machine learning, NLP ou traitement d’images.
– Intérêt pour les approches multi-modales et les architectures hybrides.
– Maîtrise de Python, Pytorch/Tensorflow, et des bibliothèques LLM

Adresse d’emploi :
Université Savoie-Mont-Blanc
LISTIC – Bat 2D
Campus Savoie-Technolac
73376 Le BOURGET du LAC cedex

Document attaché : 202509251147_these2025fondue.pdf

Nov
30
Sun
2025
Modélisation hybride d’arbre fruitier en 3D associant structure-fonction et deep-learning – Application à la conception de vergers agro-écologiques
Nov 30 – Dec 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : UMR AGAP Institut, CIRAD, Montpellier
Durée : 3 ans
Contact : frederic.boudon@cirad.fr
Date limite de publication : 2025-11-30

Contexte :
Les modèles structure-fonction (FSPM) permettent d’analyser finement le fonctionnement et la croissance des plantes dans des environnements fluctuants. Ils simulent l’interaction entre la structure modulaire de la plante, sa géométrie (distribution spatiale 3D) et les processus physiologiques en interaction avec l’environnement (Prusinkiewicz, 2004 ; Fourcaud et al., 2008 ; Louarn et Song, 2020). Ses modèles considèrent que la structure tridimensionnelle des plantes constitue à la fois son interface avec l’environnement et un déterminant majeur de leur croissance et leur productivité (Costes et al., 2006). Ils sont particulièrement mobilisés pour l’étude et la modélisation d’arbres fruitiers (Costes et al., 2008 ; Allen et al., 2005 ; Lescourret et al., 2011 ; Boudon et al., 2020) où la compétition interne pour les ressources entre organes exige des représentations dynamiques et spatialisées. Toutefois, un obstacle majeur réside dans la paramétrisation de ces modèles, qui limite leur adoption pour le développement d’outils d’aide à la décision en gestion de vergers (DeJong, 2019) et, plus largement, freine leur diffusion au sein de la communauté scientifique.

La télédétection, associée aux méthodes d’analyse basées sur le deep learning, offre un fort potentiel pour caractériser le fonctionnement et la croissance des plantes, et ainsi contribuer à la paramétrisation des modèles structure-fonction. L’émergence récente de capteurs variés (caméras RGB, LiDAR, thermiques, etc.) et de plateformes d’acquisition (drones, phénomobiles, etc.) ouvre de nouvelles perspectives pour le phénotypage haut débit et le suivi des vergers. Plusieurs initiatives récentes visent à automatiser le phénotypage des arbres, mais elles se focalisent généralement sur un nombre restreint de traits, souvent insuffisant pour alimenter un FSPM de manière complète (Streit et al., 2023).

Dans ce contexte, l’objectif de cette thèse est de développer une nouvelle génération de modèles FSPM d’arbres fruitiers, hybridant les approches classiques de modélisation avec des données haut débit issues du phénotypage en verger. En s’appuyant notamment sur les projets Gardens et PHENET, l’utilisation de FSPM paramétrés par des données de phénotypage haut débit permettra de produire des jumeaux numériques et de caractériser et explorer “in silico” la résilience de systèmes agricoles.

Un enjeu majeur des approches FSPM est de pouvoir reproduire et simuler des structures topologiques décrivant l’architecture de la plante et leurs informations géométriques ou physiologiques associées, notamment issues de la télédétection. Ces structures peuvent être décomposées en séquences qui représentent par exemple la ramification le long des axes de la plante. Des méthodes statistiques dédiées (Guédon et al., 2001) ont été développées par la communauté scientifique pour pouvoir analyser et simuler ces séquences. Récemment, les grands modèles de langage (LLM) ont connu une évolution remarquable, révolutionnant le traitement du langage naturel et trouvant des applications dans divers domaines scientifiques. Ils reposent principalement sur des architectures de réseaux de neurones avancées, parmi lesquelles les Transformers (Vaswani et al., 2017) jouent un rôle central. Contrairement aux modèles séquentiels classiques comme les RNN (Recurrent Neural Networks) ou les LSTM (Long Short-Term Memory), les Transformers exploitent un mécanisme d’attention permettant de traiter les données en parallèle plutôt que de manière séquentielle. Ce mécanisme, dit Self-Attention, pondère l’importance de chaque élément dans une séquence par rapport aux autres, améliorant ainsi la capture des dépendances à longue portée dans une séquence. Par ailleurs, d’autres approches comme les Autoencodeurs Variationnels (VAE) (Kingma & Welling, 2013) sont également utilisées dans certains modèles de génération, notamment pour apprendre des représentations latentes structurées du langage. Ces approches ouvrent des perspectives prometteuses pour leur application en modélisation FSPM, notamment en facilitant l’apprentissage et la génération automatique de structures arborescentes représentant l’architecture des plantes.

Sujet :
Lors de la première étape, ce projet s’appuiera sur des modèles FSPM existants dans la plateforme libre OpenAlea, tels que MappleT (pommier), dans lesquels la structure des arbres est modélisée par des processus stochastiques (p. ex. semi-chaînes de Markov cachées) calibrés à partir de relevés de croissance dont l’acquisition et l’analyse sont coûteuses en temps et en expertise. Une première étape de la thèse consistera à étendre un modèle d’arbre FSPM en générant la structure arborescente à l’aide de “Large Language Models” (LLM), notamment des réseaux Transformers ou des Variational Autoencoders (VAE), afin de générer la succession des organes et leurs types associés. Les observations et les sorties des modèles statistiques déjà calibrés serviront à entraîner et à paramétrer ces réseaux.

Une deuxième étape sera de simuler un modèle FSPM d’arbre fruitier contraint par des données LIDAR, issues des projets PHENET (pommier) et Gardens (citrus). A partir de ces scans, des structures topologiques augmentées d’information géométriques seront générées. Et les réseaux entraînés précédemment seront étendus pour permettre la génération de ces structures et de leurs informations associées. Un enjeu majeur consistera à développer des codages relatifs (paramétrisation des entités en fonction des paramètres du nœud parent) adaptés à ces informations pour garantir une génération séquentielle cohérente des éléments de l’architecture.

Enfin, dans une troisième étape, nous explorerons l’utilisation de descriptions partielles à certaines phases clés de la croissance. Par exemple, des reconstructions LiDAR pourraient être disponibles uniquement au début et à la fin d’un cycle de croissance, tandis que des observations plus approximatives (vols de drone estimant le volume global de la plante, distribution spatiale de la végétation, etc.) pourraient être obtenues à intervalles réguliers. Dans ce contexte, un apprentissage par renforcement sera utilisé pour calibrer les modèles de croissance. Ce cadre permettra d’alterner entre l’exploitation des données existantes pour optimiser la génération de la structure et l’exploration de nouvelles configurations possibles

Dans une dernière étapes, ces méthodes seront appliquées pour reconstruire un verger en 3D à partir d’informations de phénotypage (drones, LIDAR) puis de simuler des processus biophysiques difficilement observables comme l’interception de la lumière ou le stress hydrique afin d’estimer la résilience du système, la distribution des ressources dans ces systèmes (lumière, eau) et de proposer de nouveaux traits (dans notre cas représentés comme des paramètres de modèles), de nouvelles variétés, et de nouvelles conduites (densité d’arbres, taille, association d’espèces) permettant d’optimiser ces systèmes.

Profil du candidat :
Titulaire d’un master en informatique ou d’un diplôme d’ingénieur avec des compétences en deep learning et idéalement en 3D.
Programmation en Python et C/C++.
Intérêt pour la biologie et l’agronomie.

Formation et compétences requises :

Adresse d’emploi :
CIRAD, Phenomen team, UMR AGAP
Avenue Agropolis TA A-108 / 01
34398 Montpellier Cedex 5, France

Document attaché : 202510131618_these-assimilation-vf-2025.pdf

Dec
15
Mon
2025
Monitoring traditional agricultural crop fields with multi-modal multi-temporal Synthetic Aperture Radar data
Dec 15 – Dec 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : SIEO Lab Romania/LISTIC France
Durée : 36 mois
Contact : yajing.yan@univ-smb.fr
Date limite de publication : 2025-12-15

Contexte :

Sujet :
Distinct agricultural crops and practices play a central role in shaping the culture and cultural heritage of rural communities in specific regions. The Brașov region in Romania, for instance, is particularly renowned for its potato and sugar beet cultivation, which has earned it the designation ‘Potato Country’. However, these traditional crops are increasingly being replaced by others, such as rapeseed, which are more resilient and better adapted to changing climate conditions. This shift contributes to the loss of cultural heritage. Remote sensing, and in particular Synthetic Aperture Radar (SAR), provides valuable insights into vegetation structure, soil roughness, and soil moisture. The Copernicus program of the European Commission, together with other space agencies, offers free and regularly updated data for the long-term monitoring of agricultural systems. In this project, conducted in close collaboration between French and Romanian research units, we aim at contributing to the preservation of cultural heritage in the selected region of Romania, while the ultimate goal is to take steps towards the development of global strategies to address climate change. In order to reach the aim, we leverage multi-modal, multi-temporal SAR data to (i) quantify the impact of climate change on traditional agricultural crops, (ii) estimate the water demand of these crops, (iii) evaluate nature-based solutions to preserve soil quality, and (iv) predict future dynamics.

Research aims: leverage multi-modal (multi-frequency, multi-resolution, multi-polarization, complex signal/amplitude/interferometric coherence/phase), multi-temporal SAR data to monitor the crop growth, crop fields roughness and moisture evolution.

Methodology:
• Analyze the historical data of agricultural crops on the identified cultural heritage sites in Romania
• Multi-modal multi-temporal SAR data collection and pre-processing
• Perform SAR data analysis for the assessment of climate change impact
– crop structure evolution analysis
– soil roughness evolution analysis
– soil moisture evolution analysis
– correlation analysis with in situ data
• Predict the future dynamics with meteorological data
• Create open access data sets and tutorials for the community

Profil du candidat :
We seek for Ph.D candidates with Master degrees on remote sensing, environment and geosciences, information science. Good English skill is necessary for communication. The Ph.D student will spend 24 months in Romania and 12 months in France.

Formation et compétences requises :

Adresse d’emploi :
Space Intelligence and Earth Observation Research Laboratory, Transilvania University of Brasov, Romania,
LISTIC, University Savoie Mont Blanc, Annecy, France

Document attaché : 202511051450_PhD_subject_crop_monitoring.pdf

Dec
22
Mon
2025
Secure Federated Querying of Knowledge Graphs
Dec 22 – Dec 23 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : LS2N
Durée : 3 year
Contact : hala.skaf@univ-nantes.fr
Date limite de publication : 2025-12-22

Contexte :
I am seeking excellent candidates for a fully funded 3-year Phd position funded by the ANR SaFE-KG project.
Goal: Formalise, design, and implement a secure, efficient federation engine enabling LLM-like querying across sensitive biomedical knowledge graphs, with fine-grained access control and provenance.

Sujet :
In the context of SaFE-KG, the main objectives of the thesis is to design and implement an Efficient and Secure Federation Engine able to:

Query decentralized knowledge graphs under fine-grained access control policies.
Ensure high performance and scalability in secure federations.
Interact with LLM to support query building
Return results enriched with provenance and usage control information.
Support adaptive query processing techniques, including secure sampling.

Profil du candidat :
Solid background in Semantic Web, knowledge graphs, SPARQL; familiarity with sampling and/or ML/LLMs is a plus.

Formation et compétences requises :
Master’s in CS/IS (strong ranking).

Adresse d’emploi :
LS2N, Nantes Université

Document attaché : 202509221432_SujetThèse-Safe-KG-5.pdf

Dec
31
Wed
2025
Deep Generative Models of Physical Dynamics: Representation, Generalization, and Multiphysics Learning
Dec 31 2025 – Jan 1 2026 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ISIR – Institut des Systèmes Intelligents et de Ro
Durée : 36 mois
Contact : patrick.gallinari@sorbonne-universite.fr
Date limite de publication : 2025-12-31

Contexte :
AI4Science is an emerging research field that investigates the potential of AI methods to advance scientific discovery, particularly through the modeling of complex natural phenomena. This fast-growing area holds the promise of transforming how research is conducted across a broad range of scientific domains. One especially promising application is in modeling complex dynamical systems that arise in fields such as climate science, earth science, biology, and fluid dynamics. A diversity of approaches is currently being developed, but this remains an emerging field with numerous open research challenges in both machine learning and domain-specific modeling.

Generative modeling is transforming machine learning by enabling the synthesis of plausible, high-dimensional data across modalities like text, images, and audio. A similarly profound shift is underway in the sciences, where generative deep learning is being leveraged to model complex physical dynamics governed by partial differential equations (PDEs)—especially in cases where traditional simulations are computationally expensive.

The central goal of the PhD project is to investigate whether deep generative architectures—such as diffusion, flow-matching, or autoregressive transformer-based sequence models—can be designed to simulate, generalize, and interpolate physical dynamics across a wide range of parametric and multiphysics regimes. Building on recent advances in neural surrogate modeling, this research will aim to advance generalizable, cross-physics generative modeling.

Sujet :
RESEARCH OBJECTIVES

The overarching research question is: Can we develop generative models that learn structured, physically grounded representations of dynamical systems—enabling synthesis, adaptation, and generalization across physical regimes and multiphysics settings? It unfolds into several complementary directions:

LATRENT GENERATIVE MODELS FOR PHYSICAL DYNAMICS

The objective is to design generative models—such as diffusion, flow-matching, or autoregressive models—that learn compact and interpretable latent representations of spatiotemporal dynamics governed by PDEs. These models should:

• Capture uncertainty and multimodality in solution trajectories.
• Generalize across parametric variations.

LEARNING ACROSS MULTIPHYSICS SYSTEMS

To enable transfer learning across heterogeneous physics, we will explore shared latent representations across families of PDEs:
• Using encode–process–decode frameworks.
• Applying contrastive or multitask training to uncover reusable physical abstractions.
• Designing models invariant to space/time resolution and units.
This direction builds toward foundation-like models that capture generalizable physics priors across simulation families.

FEW-SHOT and IN-CONTEXT GENERALIZATION TO NEW PHYSICS

To support scientific modeling in data-scarce settings, we will develop methods for few-shot generalization such as:
• Fine-tuning latent priors to new PDE systems using limited examples.
• Exploring meta-learning and prompt-based adaptation techniques (inspired by in-context learning in language models).
• Incorporating known physical constraints into the generative process.
The goal is to enable rapid and physically consistent adaptation to previously unseen dynamics with minimal data and supervision.

Profil du candidat :

Computer science or applied mathematics.
Master degree in computer science or applied mathematics, Engineering school.

Formation et compétences requises :
Good programming skills. Background and experience in machine learning.

Adresse d’emploi :
Sorbonne Université (S.U.), Pierre et Marie Campus in the center of Paris. The candidate will integrate the MLIA team (Machine Learning and Deep Learning for Information Access) at ISIR (Institut des Systèmes Intelligents et de Robotique).

Document attaché : 202505191314_2025-05-01-PhD-Description-Generative-models-Physics.pdf

Gender dynamics in collaboration networks
Dec 31 2025 – Jan 1 2026 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Laboratoire Informatique d’Avignon avec codirect
Durée : 3 ans
Contact : rosa.figueiredo@univ-avignon.fr
Date limite de publication : 2025-12-31

Contexte :
ANR project EVA – EValuating gender policies in academia through the Analysis of scientific collaboration networks.

Sujet :
https://eva.univ-avignon.fr/wp-content/uploads/sites/34/2025/04/offre.pdf

Profil du candidat :
• Master’s degree (or equivalent) in Computer Science, Applied Mathematics, Operations Research, or a related field.
• Strong ability to write and present research clearly.
• Proficiency in Python, R, Julia or C++, with experience in AI and optimization algorithms.
• Good understanding of graph theory, machine learning, and network analysis.
• Ability to work well in an interdisciplinary team.
• Proficiency in English is required, and knowledge of French is an advantage

Formation et compétences requises :

Adresse d’emploi :
LIA, Avignon

Document attaché : 202504251721_offreThesis_EVA.pdf

Offres de stages

Jun
30
Mon
2025
Proposition de stage de fin d’études ‐ niveau master
Jun 30 – Jul 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IMT Atlantique & ENSTA
Durée : 6 mois
Contact : dorian.cazau@ensta.fr
Date limite de publication : 2025-06-30

Contexte :

Sujet :
IA Non‐Supervisée pour le Suivi de la Biodiversité Marine par Acoustique Passive Sous Marine (IANSPAM)

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
Brest ‐ IMT Atlantique / ENSTA

Document attaché : 202502101141_Stage IANSPAM.pdf

Oct
31
Fri
2025
Offre de stage de recherche (Master 2) – Intelligence Artificielle et Science des Données
Oct 31 – Nov 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/Innovation

Laboratoire/Entreprise : CRISTAL UMR CNRS 9189
Durée : 6 mois
Contact : hayfa.zgaya-biau@univ-lille.fr
Date limite de publication : 2025-10-31

Contexte :
Le projet IARISQ (projet ANR 2025) vise à développer des modèles d’intelligence artificielle avancés pour prédire la toxicité des particules atmosphériques en fonction de leur composition physico-chimique et de leurs variations spatio-temporelles. Le stage s’inscrit dans une dynamique interdisciplinaire mêlant IA explicable (XAI), gestion de l’incertitude, toxicologie environnementale et données de qualité de l’air.

Suite possible : thèse (2026–2029)
Le stage pourra évoluer naturellement vers une thèse de doctorat de 3 ans au sein du laboratoire CRISTAL, dans la continuité des travaux réalisés. Le/la doctorant(e) travaillera en lien étroit avec les partenaires ATMO-HDF et LGCgE, sur la modélisation avancée des risques toxiques et l’intégration des modèles IA dans des outils opérationnels de surveillance.

Sujet :
• Participer à la construction et préparation de bases de données (mesures ATMO-HDF, composition physico-chimique, tests de toxicité).
• Déployer des modèles d’apprentissage automatique supervisés et non supervisés pour identifier les caractéristiques les plus influentes sur la toxicité.
• Expérimenter des techniques d’explicabilité (SHAP, LIME) et de réduction de dimension (UMAP, PCA).
• Contribuer au design d’une première version de pipeline IA à intégrer dans un futur système d’aide à la décision.

Profil du candidat :
• M2 en informatique, intelligence artificielle, science des données.
• Maîtrise de Python, notamment avec les bibliothèques scikit-learn, pandas, PyTorch ou TensorFlow.
• Connaissance des modèles de machine learning, des réseaux de neurones et/ou des approches XAI.
• Rigueur, autonomie et appétence pour les projets interdisciplinaires (santé, environnement, IA).

Formation et compétences requises :
• M2 en informatique, intelligence artificielle, science des données.
• Maîtrise de Python, notamment avec les bibliothèques scikit-learn, pandas, PyTorch ou TensorFlow.
• Connaissance des modèles de machine learning, des réseaux de neurones et/ou des approches XAI.
• Rigueur, autonomie et appétence pour les projets interdisciplinaires (santé, environnement, IA).

Adresse d’emploi :
Centre de Recherche en Informatique, Signal et Automatique de Lille
UMR CNRS 9189 CRIStAL
Université de Lille – Campus scientifique
Bâtiment ESPRIT
Avenue Henri Poincaré
59655 Villeneuve d’Ascq

https://www.cristal.univ-lille.fr

Offre de stage de recherche (Master 2) – Intelligence Artificielle et Science des Données
Oct 31 – Nov 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/Innovation

Laboratoire/Entreprise : CRISTAL UMR CNRS 9189
Durée : 6 mois
Contact : hayfa.zgaya-biau@univ-lille.fr
Date limite de publication : 2025-10-31

Contexte :
Le projet IARISQ (projet ANR 2025) vise à développer des modèles d’intelligence artificielle avancés pour prédire la toxicité des particules atmosphériques en fonction de leur composition physico-chimique et de leurs variations spatio-temporelles. Le stage s’inscrit dans une dynamique interdisciplinaire mêlant IA explicable (XAI), gestion de l’incertitude, toxicologie environnementale et données de qualité de l’air.

Suite possible : thèse (2026–2029)
Le stage pourra évoluer naturellement vers une thèse de doctorat de 3 ans au sein du laboratoire CRISTAL, dans la continuité des travaux réalisés. Le/la doctorant(e) travaillera en lien étroit avec les partenaires ATMO-HDF et LGCgE, sur la modélisation avancée des risques toxiques et l’intégration des modèles IA dans des outils opérationnels de surveillance.

Sujet :
• Participer à la construction et préparation de bases de données (mesures ATMO-HDF, composition physico-chimique, tests de toxicité).
• Déployer des modèles d’apprentissage automatique supervisés et non supervisés pour identifier les caractéristiques les plus influentes sur la toxicité.
• Expérimenter des techniques d’explicabilité (SHAP, LIME) et de réduction de dimension (UMAP, PCA).
• Contribuer au design d’une première version de pipeline IA à intégrer dans un futur système d’aide à la décision.

Profil du candidat :
• M2 en informatique, intelligence artificielle, science des données.
• Maîtrise de Python, notamment avec les bibliothèques scikit-learn, pandas, PyTorch ou TensorFlow.
• Connaissance des modèles de machine learning, des réseaux de neurones et/ou des approches XAI.
• Rigueur, autonomie et appétence pour les projets interdisciplinaires (santé, environnement, IA).

Formation et compétences requises :
• M2 en informatique, intelligence artificielle, science des données.
• Maîtrise de Python, notamment avec les bibliothèques scikit-learn, pandas, PyTorch ou TensorFlow.
• Connaissance des modèles de machine learning, des réseaux de neurones et/ou des approches XAI.
• Rigueur, autonomie et appétence pour les projets interdisciplinaires (santé, environnement, IA).

Adresse d’emploi :
Centre de Recherche en Informatique, Signal et Automatique de Lille
UMR CNRS 9189 CRIStAL
Université de Lille – Campus scientifique
Bâtiment ESPRIT
Avenue Henri Poincaré
59655 Villeneuve d’Ascq

https://www.cristal.univ-lille.fr

Nov
16
Sun
2025
M2 Internship – Analysis and improvement of estimators of low-rank tensor models
Nov 16 – Nov 17 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRIT (Toulouse)
Durée : 5 to 6 months
Contact : henrique.goulart@irit.fr
Date limite de publication : 2025-11-16

Contexte :

Sujet :
We are seeking candidates for a 5- to 6-month internship on the analysis and improvement of estimators of low-rank tensor models, with the possibility of a PhD thesis afterwards (a PhD funding is secured). This subject is situated at the interface between mathematics and computer science, having applications in several domains, notably in data science and machine learning.

A detailed description can be found at: https://cloud.irit.fr/s/hZnoJgiopaqMkdV

Profil du candidat :
M2 student strongly motivated by mathematics and its application to statistical inference and machine learning. Prior knowledge on tensor algebra and on random matrix theory are a strong plus. Good communication skills (both oral and written) in English are required, notably for reading, writing and presenting scientific papers.

Formation et compétences requises :

Adresse d’emploi :
IRIT (Institut de Recherche en Informatique de Toulouse), site ENSEEIHT (2 rue Charles Camichel, Toulouse).

Nov
21
Fri
2025
Développeur.euse C++ HPC d’un code de simulation pour la formation de grandes structures en cosmologie
Nov 21 – Nov 22 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Institut d’Astrophysique de Paris
Durée : 4 à 6 mois
Contact : tchernia@iap.fr
Date limite de publication : 2025-11-21

Contexte :
La modélisation et la compréhension de l’histoire de l’Univers, depuis le Big Bang jusqu’à aujourd’hui, reposent sur l’évaluation de nos modèles
cosmologiques à partir des grands relevés astronomiques (Euclid, DESI…). L’un des objectifs est de simuler la formation des grandes structures afin d’évaluer la robustesse des modèles cosmologiques vis-à-vis des observations. L’Institut d’Astrophysique de Paris (IAP), une Unité Mixte de Recherche (UMR) de Sorbonne Université et du Centre National de la Recherche Scientifique (CNRS), est impliqué dans cette activité. En son sein, l’équipe « Grandes structures et Univers profond » à laquelle le.la stagiaire sera affecté.e a développé le code Simbelmynë, qui permet de :

1. Calculer l’évolution de la répartition de matière noire en résolvant les
équations du mouvement de la gravité à l’échelle de l’univers observable
(problème à N corps),
2. En déduire une répartition des galaxies dans le ciel,
3. Produire des relevés cosmologiques simulés.

Cette chaîne de simulation est appelée à être lancée un très grand nombre de fois pour des paramètres d’entrée variés. C’est pourquoi le respect des contraintes du calcul haute performance (HPC) et la parallélisation des tâches sont des enjeux clés de ce code. Grâce à l’approche sCOLA qui divise la portion d’univers à simuler en morceaux indépendants, il est possible d’adopter une approche hybride entre calculs à mémoire distribuée et à mémoire partagée. Nous souhaitons aujourd’hui le rendre portable sur plusieurs architectures cibles (CPU et GPU).

Pour plus de détails sur le contexte scientifique, voici un article de vulgarisation traitant de ce sujet : https://theconversation.com/vers-une-simulation-de-lunivers-sur-un-telephone-portable-137421

Sujet :
La.le stagiaire participera au portage de C vers C++ du code Simbelmÿne ainsi qu’au développement de codes de calcul parallèle utilisant des CPU et GPUs. Il/elle se formera au framework Kokkos et l’utilisera afin de produire un code générique compatible avec toutes les architectures cibles. Il/elle mettra ces codes en œuvre à l’aide du cluster de calcul du laboratoire, mettant à disposition CPUs et GPUs. Il/elle travaillera en équipe et versionnera son code à l’aide de Git et produira les tests unitaires et benchmarks garantissant la qualité, la performance et la robustesse de son code.

Profil du candidat :
Nous recherchons un.e stagiaire de six mois en fin d’études ou césure, en école d’ingénieurs ou master, avec une spécialisation en informatique et si possible en calcul scientifique/HPC.

Formation et compétences requises :
– Maîtrise du langage de programmation C++, connaissance de python
– Savoir adopter une méthodologie de développement collaboratif (Git,
tests unitaires…)
– Connaître les enjeux de la programmation HPC, notamment la
parallélisation des tâches (multithreading, multiprocessing).
– Notions de mathématiques appliquées (Transformées de Fourier,
Équations aux dérivées partielles…)
– Anglais courant (réunions en anglais)
– Une formation en physique serait un plus.

Adresse d’emploi :
98 bis boulevard Arago, 75014 Paris

Document attaché : 202510231604_Fiche de stage HPC Cosmologie.pdf

Nov
26
Wed
2025
Les collections d’éphémères vues par le prisme des annuaires du commerce de Paris
Nov 26 – Nov 27 all-day

Offre en lien avec l’Action/le Réseau : SaD-2HN/– — –

Laboratoire/Entreprise : Centre de Recherches Historiques (UMR 8558 : EHESS
Durée : 6 mois
Contact : bertrand.dumenieu@ehess.fr
Date limite de publication : 2025-11-26

Contexte :
Le musée Carnavalet – Histoire de Paris et les bibliothèques spécialisées de la ville de Paris conservent d’importantes collections d’éphémères. Il s’agit de documents de la vie quotidienne produits par des commerces, des associations ou des particuliers, qui deviennent très rapidement obsolètes : faire-parts, menus, cartes postales, affiches, prospectus, buvards publicitaires, dépliants touristiques, catalogues de vente, programmes de théâtre, images pieuses, sous-bocks, papiers de fruits, etc. La figure 1 présente un exemple d’affiches et de prospectus créés entre 1873 et 1888 et conservés au musée Carnavalet – Histoire de Paris. Chaque éphémère est indexé par des métadonnées récoltées par le musée, décrivant les acteurs de sa production (artiste dessinateur, imprimeur) et les techniques et matériaux mobilisés. Ces informations permettent quelques analyses explicatives sur la chaîne de création, d’impression et de diffusion de ces éphémères, mais qui restent limitées faute de connaissances suffisantes sur les réseaux professionnels des commerçants, artistes et artisans qui y contribuent.

Pour peu qu’ils exercent à Paris, ces professionnels ont de bonnes chances d’être recensés dans les annuaires commerciaux de la ville (voir figure 2). Ancêtres des « Pages Jaunes », ces ouvrages compilent, classent, datent et localisent les commerçants, artisans et notables parisiens au sein de longues listes nominatives. Celles de la majorité des annuaires édités entre 1797 et 1914 ont été extraites et transformées en une base de données géographique sérielle durant un précédent projet de recherche. Il est désormais possible d’exploiter les 22 millions d’entrées contenues de cette base pour tenter d’identifier les acteurs de la production d’éphémères et les lier aux collections du musée Carnavalet.

Sujet :
Le premier objectif de ce stage est donc de croiser les métadonnées des éphémères avec la base des annuaires du commerce parisien au XIXe siècle pour y retrouver les commerçants et artisans ayant concouru à la production des éphémères du musée. Le second objectif consistera à proposer une méthodologie d’analyse de ces métadonnées enrichies pour comprendre comment la création, l’impression et la diffusion des éphémères s’organisait, selon les commanditaires, les imprimeurs ou les types de supports. On pourra, par exemple, étudier l’éventuelle spécialisation des artistes, des imprimeurs, des rues ou des quartiers dans certains types de production ou bien les critères de choix des artistes ou des imprimeurs par les commanditaires : proximité spatiale, recommandation professionnelle, renommée, etc.
La première difficulté de ce travail réside dans la création et le peuplement du graphe de connaissances initial à partir des deux sources de données hétérogènes, incomplètes, bruitées, spatiales et temporelles que sont la base des annuaires et les métadonnées des éphémères. Il s’agira donc de proposer une ontologie, guidée par les hypothèses d’analyse des historiens de l’art concernant les réseaux professionnels potentiels des commerçants, artistes et imprimeurs impliqués dans la création des éphémères. Celle-ci devra ensuite être peuplée à partir des données disponibles, ce qui nécessitera un travail de désambiguïsation des commerçants, artistes et imprimeurs.
La seconde difficulté sera de proposer une méthodologie d’analyse spatio-temporelle permettant de comprendre le mode de constitution des réseaux professionnels à l’œuvre et leurs dynamiques au cours de la période étudiée.

Profil du candidat :
Master 2 ou équivalent en humanités numériques, sciences de l’information géographique ou informatique.
Le ou la candidat.e doit être un.e étudiant.e inscrit.e dans une université francilienne.

Formation et compétences requises :
– Analyse de données : connaissances pratiques et théoriques en analyse spatiale.
– Web de données : expérience en manipulation de graphes de connaissances, connaissance du liage de données, notions de conception d’ontologies.
– Sciences de l’information géographique : maîtrise opérationnelle de QGIS, connaissance de PostGIS, notions en scripting Python pour les SIG.
– Un goût pour l’histoire urbaine ou l’histoire de l’art est un atout.

Adresse d’emploi :
Centre de recherches historiques (UMR 8558 EHESS – CNRS), 54 boulevard Raspail, 75006 Paris

Document attaché : 202510211306_StageEphemeres&Annuaires.pdf

Dec
2
Tue
2025
Offre de stages en IA pour la physique fondamentale
Dec 2 – Dec 3 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire des 2 Infinis – Toulouse
Durée : Flexible
Contact : catherine.biscarat@l2it.in2p3.fr
Date limite de publication : 2025-12-02

Contexte :
Le Laboratoire des 2 Infinis – Toulouse (L2IT) est une unité mixte de recherche (UMR) du CNRS et de l’Université de Toulouse, jeune et dynamique, née en janvier 2020. Les objets d’étude des chercheurs et des ingénieurs du L2IT sont les deux infinis – l’infiniment petit et l’infiniment grand – et les relations entre les phénomènes qui régissent chacun d’entre eux. Le laboratoire est organisé en quatre équipes “Calcul, Analyse et Données”, “Physique Nucléaire”, “Physique des particules” et “Ondes Gravitationnelles”. Nous poursuivons nos recherches au sein de collaborations internationales. Nous sommes actuellement 32 membres, dont 15 permanents qui mettent en place les équipes de recherche.

La spécificité du L2IT est son accent sur les méthodes numériques de pointe (IA, calcul HPC, ingénierie logicielle, expertise CUDA) qui accompagnent les travaux d’analyse de données, de modélisation, simulation, et de développements théoriques. Le L2IT est implanté sur un campus dynamique qui regroupe facultés, écoles et laboratoires.

Sujet :
Trois sujets de stage sont actuellement proposés. Ils sont à l’intersection entre l’IA et nos domaines de recherche en physique fondamentale (physique des particules, cosmologie, ondes gravitationnelles). Pour les détails des sujets, veuillez vous référer à notre site internet : https://www.l2it.in2p3.fr/en/emplois-et-stages/internships-2026/

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
Laboratoire des 2 Infinis – Toulouse, Maison de la Recherche et de la Valorisation, 75 cours des Sciences, 31400 Toulouse, France

Dec
10
Wed
2025
Stage M2 – Objectivation des phases de sommeil sur la base de données cérébrales chez le babouin
Dec 10 all-day

Offre en lien avec l’Action/le Réseau : – — –/Innovation

Laboratoire/Entreprise : Institut de Science des Données de Montpellier / C
Durée : 5-6 mois
Contact : gino.frazzoli@umontpellier.fr
Date limite de publication : 2025-12-10

Contexte :
Le sommeil, bien que d’apparence triviale, constitue un état biologique complexe, difficile à quantifier sans recourir à une approche multimodale intégrant notamment l’enregistrement de l’activité cérébrale (EEG). Cette contrainte technologique rend l’étude du sommeil exigeante en conditions naturelles. Comprendre comment les animaux dorment dans leur environnement, en particulier dans un cadre social, représente ainsi un défi majeur. Chez les espèces grégaires comme le babouin, le sommeil ne se résume pas à un phénomène individuel : il s’organise dans un contexte collectif, influencé par les interactions sociales, la hiérarchie et la vigilance partagée. Le projet ERC COSLEEP (dirigé par Meg Crofoot, Max Planck Institute of Animal Behavior) s’attache à explorer cette dimension sociale du sommeil en conditions écologiques réelles, grâce à des suivis simultanés du comportement, de la position et de l’activité physiologique d’individus vivant à l’état sauvage. Le stage proposé s’inscrit dans cette collaboration entre le Centre d’Écologie Fonctionnelle et Évolutive (CEFE), l’Institut de Science des Données et le Max Planck Institute, et portera sur l’analyse de données de sommeil (activité cérébrale, musculaire, oculaire, accéléromètre et vidéo) afin de caractériser la structure et la qualité du sommeil dans un contexte social et écologique réel, et de développer un modèle prédictif fiable basé sur les signaux accélérométriques.

Sujet :
Le stage aura pour objectif de contribuer à la mise au point d’outils d’analyse automatisée du sommeil chez le babouin à partir de séries temporelles multimodales. Dans un premier temps, le ou la stagiaire évaluera la cohérence du scorage manuel du sommeil réalisé par plusieurs spécialistes à partir d’enregistrements physiologiques (EEG, EMG, EOG, accéléromètre, vidéo), afin de quantifier le niveau d’accord inter-experts et d’établir une base de données de référence. Dans un second temps, il s’agira de tester et d’adapter des modèles d’apprentissage automatique existants (tels que Somnotate ou USleep) pour obtenir un algorithme de scorage automatique capable de s’ajuster aux caractéristiques propres aux signaux enregistrés chez le babouin. Enfin, le stage visera à développer un modèle prédictif du sommeil à partir des signaux d’accéléromètre seuls, en s’appuyant sur les labels dérivés de l’activité cérébrale. Ce modèle permettra à terme d’estimer les phases et sous-états du sommeil à partir de capteurs portés sur collier, ouvrant la voie à une analyse non invasive du sommeil en milieu naturel.

Profil du candidat :
Le ou la candidat(e) devra posséder une formation en analyse de données expérimentales, data science, ou domaine connexe avec une appétence pour les neurosciences, sciences cognitives, bio-informatique, ou l’écophysiologie. Une bonne familiarité avec le traitement de signaux temporels, des compétences en programmation (Python, Matlab ou R) et des compétences en méthodes d’apprentissage automatique (réseaux de neurones, classification supervisée et modèles de deep learning) seraient un atout majeur.
Le ou la stagiaire devra faire preuve de rigueur, d’autonomie et de curiosité scientifique, ainsi que d’un goût marqué pour l’analyse de données et le travail interdisciplinaire, à l’interface entre neurosciences, écologie comportementale et science des données. Une aisance en anglais scientifique (lecture et échanges techniques) sera également souhaitée.

Formation et compétences requises :
• Maîtrise de Python (NumPy, Pandas, Scikit-learn, PyTorch). Des notions en Matlab sont appréciées.
• Connaissances en statistiques, apprentissage automatique et deep learning.
• Intérêt pour les méthodes utilisées dans les modèles de scorage automatique du sommeil :
o USleep : réseau profond combinant CNN inspiré de U-net pour la classification EEG/EMG. https://www.nature.com/articles/s41746-021-00440-5
o Somnotate : approche probabiliste (HMM + LDA) intégrant la dynamique temporelle du sommeil. https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1011793
• Intérêt à développer des compétences en analyse de signaux physiologiques (EEG, EMG, EOG, accélérométrie).
• Notions en validation de modèles et évaluation inter-experts (Kappa, ICC, …).
• Rigueur, autonomie, et intérêt pour les approches interdisciplinaires (neurosciences, écologie, data science).
• Bon niveau d’anglais scientifique (lecture et communication).

Adresse d’emploi :
Case courrier, 13004 Pl. Eugène Bataillon Bât. 4, 34095 Montpellier Cedex 5

Document attaché : 202511030916_Analyse_donnees_physiologiques_babouins_CEFE_ISDM_Montpellier.pdf

Dec
15
Mon
2025
Approches data-driven pour la détection d’interfaces géologiques
Dec 15 – Dec 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : BRGM
Durée : 6 mois
Contact : c.gracianne@brgm.fr
Date limite de publication : 2025-12-15

Contexte :
Rejoindre le Bureau de Recherches Géologiques et Minières (BRGM), c’est intégrer l’établissement public français de référence dans les sciences de la Terre, qui rassemble 1000 experts passionnés dans 29 implantations en France métropolitaine et en Outre-mer. Le BRGM œuvre à la connaissance du sous-sol pour répondre aux grands défis environnementaux, à travers des projets scientifiques innovants et à fort enjeu sociétal.
Dans le cadre d’un programme de recherche dédié à l’aléa sismique à Mayotte, l’objectif est de détecter et cartographier les interfaces géologiques responsables de l’effet de site, phénomène amplifiant localement les ondes sismiques. Après une phase exploratoire sur trois sites pilotes, le projet vise désormais l’automatisation de cette détection à l’échelle de l’île à partir de données électromagnétiques aéroportées (AEM).

Sujet :
Dans le contexte volcanique et sismique de Mayotte, la présence d’interfaces géologiques marquant des contrastes lithologiques importants (passage de couches dures à meubles) joue un rôle majeur dans l’amplification locale des ondes sismiques. Identifier ces interfaces à grande échelle est essentiel pour la cartographie de l’aléa sismique. Le BRGM a conduit une première phase de détection manuelle sur trois zones test via l’analyse de données AEM (résistivités), complétée par une phase d’automatisation sur l’ensemble de l’île.
Les premiers tests sur des modèles supervisés se sont révélés insuffisants, notamment pour prédire les interfaces peu représentées. Une approche alternative consistant à reformuler le problème comme une tâche de segmentation d’image avec un réseau U-Net 2D a permis de mieux exploiter la continuité spatiale des profils AEM. Cependant, la validation de ce modèle a montré des limites,avec une concentration des erreurs dans certaines profondeurs critiques (5-10 m et 20-40 m), rendant les performances trop optimistes.
L’objectif du stage est de continuer ces développements en comparant plusieurs méthodologies avancées pour la détection automatisée de ces interfaces géologiques à partir des profils AEM. Les approches testées incluront :
– des modèles classiques améliorés (RF, CNN) ;
– des approches topologiques (TDA) pour quantifier l’incertitude structurelle ;
– des approches guidées par la physique (PINNs) intégrant des contraintes géologiques
Le ou la stagiaire devra construire des baselines reproductibles, définir un protocole d’évaluation robuste, comparer les performances des modèles sur l’ensemble de l’île, et surtout évaluer leur capacité à corriger les erreurs récurrentes identifiées sur les zones critiques (Dembeni, Longoni). Une attention particulière sera portée à la localisation des faux positifs/négatifs en profondeur. L’analyse des résultats par cartographie d’erreurs enrichira les réflexions sur la généralisation des approches IA en géosciences.

Profil du candidat :
Vous êtes autonome, curieux·se et rigoureux·se, avec une capacité à structurer et documenter vos analyses. Vous êtes à l’aise pour explorer, prétraiter, visualiser et interpréter des jeux de données complexes. Vous accordez une attention particulière à la robustesse méthodologique et êtes capable d’évoluer dans un environnement de recherche.

Doté·e d’un bon relationnel, vous savez collaborer au sein d’une équipe pluridisciplinaire, en lien étroit avec des spécialistes du domaine (géologues, géophysiciens, data scientists). Vous faites preuve de rigueur scientifique, d’esprit critique et de qualités de communication, à l’écrit comme à l’oral.

Formation et compétences requises :
Formation de niveau Bac+5 : Master 2 ou dernière année d’école d’ingénieur, avec spécialisation en data science, intelligence artificielle, mathématiques appliquées ou géosciences numériques.

Solides bases en apprentissage automatique : régression, classification, réseaux de neurones.

Maîtrise du langage Python et des bibliothèques standards en data science : scikit-learn, PyTorch ou TensorFlow, NumPy, Pandas, Matplotlib.

Une première expérience avec des architectures convolutives (CNN) ou de segmentation (U-Net) est un atout.

Une familiarité avec les problématiques de traitement de données géospatiales ou géophysiques est appréciée.

Des connaissances en Topological Data Analysis (TDA) ou en Physics-Informed Neural Networks (PINNs) seraient un plus, mais peuvent être développées durant le stage.

Intérêt pour les notions de validation rigoureuse, d’incertitude, de reproductibilité et de qualité des données.

Adresse d’emploi :
3 avenue Claude Guillemin, 45000 Orléans

Document attaché : 202511060727_Stage_BRGM_2026.pdf

Internship: Representation of physical quantities on the Semantic Web
Dec 15 – Dec 16 all-day

Offre en lien avec l’Action/le Réseau : RECAST/– — –

Laboratoire/Entreprise : LIMOS, UMR 6158 / Mines Saint-Étienne
Durée : 4-6 mois
Contact : maxime.lefrancois@emse.fr
Date limite de publication : 2025-12-15

Contexte :
Physical quantities form an important part of what is represented in scientific data, medical data, industry data, open data, and to some extent, various private data.

Whether it is distances, speeds, payloads in transportation, concentrations, masses, moles in chemistry, powers, intensities, voltages in the energy sector, dimensions of furniture, weights, heights of people, durations, and many others in health, there is a need to represent physical quantities, to store them, to process them, and to exchange them between information systems, potentially on a global scale, often on the Internet and via the Web.

Sujet :
In this internship, we seek to precisely define a way to unambiguously represent physical quantities for the Web of Data. More precisely, we will study the proposals made to encode physical quantities in the standard data model of the Semantic Web, RDF. We will be particularly interested in the use of a data type dedicated to this encoding, probably adapted from the proposal of Lefrançois & Zimmermann (2018) based on the UCUM standard.

Having established a rigorous definition of the data type (possibly its variants, if relevant), we will focus on implementing a module that can read/write and process physical quantities and their operations within the RDF data manipulation APIs, for the management, querying and reasoning with knowledge graphs containing physical quantities.

The ambition is that, on the one hand, the specification will become in a few years a de facto standard, before perhaps becoming a de jure standard; and that, on the other hand, the implementation will be the reference allowing to compare the compliance levels of other future implementations.

This study should lead to the publication of a scientific paper in a high impact scientific journal.

References
Maxime Lefrançois and Antoine Zimmermann (2018). The Unified Code for Units of Measure in RDF: cdt:ucum and other UCUM Datatypes. In The Semantic Web: ESWC 2018 Satellite Events – ESWC 2018 Satellite Events, Heraklion, Crete, Greece, June 3-7, 2018, Revised Selected Papers, volume 11155 of the Lecture Notes in Computer Science, pp196–201, Springer.
Gunther Shadow and Clement J. McDonald. The Unified Code for Units of Measure. Technical report, Regenstrief Institute, Inc, November 21 2017.

Profil du candidat :
Master 2 students in computer science

To apply, please submit by email or in an online file repository your CV, motivation letter, university transcripts, and possibly letters of recommendation. The motivation letter must explain why you are interested in this topic and why you are qualified to work on this topic.

Formation et compétences requises :
Equivalent of a M2 level in CS, with knowledge of Semantic Web technologies. Also, the candidate must have either very good programming skills in Java, or very good aptitude in formal and abstract thinking.

Adresse d’emploi :
Mines Saint-Étienne, Institut Henri Fayol, 29 rue Pierre et Dominique Ponchardier, 42100 Saint-Étienne, France

Dec
30
Tue
2025
Concevoir une base de connaissance permettant d’aligner différentes méthodes d’innovation
Dec 30 – Dec 31 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Centre Génie Industriel, IMT Mines Albi
Durée : 6 mois
Contact : myriam.lamolle@mines-albi.fr
Date limite de publication : 2025-12-30

Contexte :
Ce stage s’inscrit dans le projet TABGHA qui se veut un outil de génération démultiplié de concepts hautement valorisables afin de promouvoir l’innovation avec l’aide du CGI (Centre de Génie Industriel) d’IMT Mines Albi (cgi.mines-albi.fr) et le LIASD, Université Paris 8.

Sujet :
Face à la méconnaissance des cultures innovations susceptibles de créer des ressources et le peu d’étude sur la valorisation économique des recherches (spin off, licence, prestation), le transfert de technologie devient crucial.
Pour cela, il faut, à partir d’une technologie générique (souvent sur étagère), multiplier les cas applicatifs (marchés d’atterrissage) pour accroitre les chances de valorisation (et aussi poursuivre les développements). À ce jour, de nombreuses méthodes existent pour générer ces différents cas applicatifs : design thinking, analyse fonctionnelle… Aucune d’entre elles ne faisant l’unanimité, le projet vise à développer une plateforme open-source en « Knowledge As A Service » (KaaS) comme écosystème digital fondé sur des composants logiciels qui se combinent pour collaborer de façon à permettre une évolution graduelle du système au travers de nouvelles contributions et de nouveaux composants fournis par la communauté.
L’objectif sous-jacent est de découvrir dans la base de connaissance constituée des connaissances cachées et de déterminer des analogies afin d’aider des décideurs à trouver de nouveaux domaines d’application de leur concept/produit ou à créer de nouveaux concept/produit.
Vous contribuerez à lever un des verrous scientifiques du projet : concevoir un ou des algorithmes d’alignement de méthodes de design thinking fondés sur l’analyse structurelle et sémantique de graphes de connaissances (ou ontologie modulaire).
Objectifs concrets :
1. Modéliser sous forme d’une ontologie les méthodes C-K, Vianeo (voire TriZ1) ;
2. En suivant une méthode scientifique, concevoir et implémenter des algorithmes permettant d’aligner semi-automatiquement les méthodes citées : les classes, les relations entre ces classes, etc. en explicitant les règles de transformation. Peupler la base de connaissance et évaluer les algorithmes sur le mini-cas d’étude réaliste ;
3. Créer les IHM pour offrir les services :
a) de choix de la méthode par laquelle le projet d’innovation sera développé ;
b) ou d’hybridation de méthodes pour une approche multi-points de vue ;
4. Rédiger un article de conférence internationale avec l’équipe d’encadrement.

Profil du candidat :
Bac+5 (Master 2 ou dernière année d’école d’ingénieur) en Informatique, Mathématiques Appliquées ou domaine connexe

Formation et compétences requises :
Compétences techniques indispensables :
• Maîtrise des concepts de l’IA neuro-symbolique ;
• Capaciter à conceptualiser des méthodes complexes
• Maîtrise d’outils et méthodes d’analyse de graphes
• Excellente compréhension écrite, bonne expression (lecture/rédaction d’articles) et bonne compréhension orale en anglais
Qualités personnelles attendues
• Capacité à proposer des idées algorithmiques dès l’entretien
• Être moteur dans les échanges scientifiques et la validation d’idées
• Goût pour la formalisation mathématique et l’expérimentation méthodique
• Appréciation pour la recherche bibliographique
Un plus :
• Expérience en recherche (stage labo, projet R&D…)
• Connaissance des ontologies et des logiques de description
• Intérêt pour les systèmes à base de raisonnement

Adresse d’emploi :
IMT Mines Albi (Centre de génie industriel), Albi (81)

Document attaché : 202511171603_offreStageM2_sujet1_2026.pdf

Dec
31
Wed
2025
Internship Subject M2 – Integrating Earth observation data and deep learning methods to monitor food systems
Dec 31 2025 – Jan 1 2026 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CIRAD – UMR TETIS
Durée : 6 mois
Contact : roberto.interdonato@cirad.fr
Date limite de publication : 2025-12-31

Contexte :
Food systems are highly interconnected between countries on a global scale, as shown by recent disruptions such as the war in Ukraine and the global pandemic. Food flows are vulnerable to shocks, and these disruptions influence food prices, which in turn affect food consumption patterns. This has had a significant impact on people’s diets, particularly in underdeveloped countries where food security is already fragile. However, scientists and policy-makers lack the data and tools to identify weak points in food flows and build food systems resilient to shocks and disruptions. While considerable progress has been made using Earth Observation data to map crop locations and agricultural productivity (e.g. crop yields), little attention has been paid to the intermediate stages of the workflow – distribution, processing and markets – which are key to understanding and modeling how food moves from production to consumption. Additionally, numerous geospatial datasets, such as OpenStreetMap, are publicly accessible and provide valuable information on land use and land cover.

Thanks to advances in artificial intelligence and its application to Earth Observation data, continuously collected satellite images on a global scale, combined with meteorological data, make it possible to monitor food systems in real time. Deep learning models, capable of capturing complex, non-linear relationships, and multimodal algorithms integrating data from a variety of sources, are opening up new perspectives in this field. This internship proposes to exploit multi-temporal and multi-resolution Earth observation data, by combining them with learning models, to monitor food systems, estimate agricultural yields and analyze their links with market prices.

This internship focuses on developing machine learning approaches to analyze food flows in Rwanda, in relation to food security situation in the country, by using comprehensive market data and geospatial information. Food flows often deviate from optimal distribution patterns due to infrastructure constraints, market dynamics, and socio-economic factors. For example, a certain product (e.g., potatoes) grown in northern regions may follow suboptimal routes to reach southern markets. By modeling both ideal and actual food flows, we can identify bottlenecks and opportunities to improve food security.

Sujet :
Missions :

The project aims to understand the relationship between food production locations, distribution networks, and market accessibility to inform food security policies. More specifically, the final task is to build a machine learning model able to predict the probability that a certain item is sold in a specific market, based on production and distribution data.

The project leverages two primary datasets:

· Public Market Dataset: 1.2 million items across 70 markets covering 10 types of food items.

· CGIAR/IITA Survey Database: A dataset collected by the IITA (International Institute of Tropical Agriculture) including monthly data from 7,000 vendors across 67 markets in all districts of Rwanda, including food quality assessments and detailed market information.

These datasets will be complemented by geospatial data including OpenStreetMap (OSM) infrastructure data, land cover information, and Earth observation data (NDVI and other spectral indices).

The main tasks to address during the internship will be:

1. Database Integration and Market Mapping

a. Merge the public market dataset with CGIAR/IITA survey data to create a comprehensive market database

b. Map which specific food items are sold in which markets

2. Geospatial Data Integration

a. Incorporate OpenStreetMap data to understand transportation networks and market accessibility

b. Integrate land cover and agricultural production data to identify food production zones

c. Process Earth observation data (NDVI, meteorological data) to assess agricultural productivity

d. Map the complete food system from production areas to consumption markets

3. Machine Learning Model Development

a. Develop predictive models to estimate the probability that specific food items will be available in particular markets

b. Compare actual food flows with modeled optimal flows to identify inefficiencies

c. Test developed models against baseline methodologies and state-of-the-art approaches

4. Writing of the internship report (in English) to capitalize on the work carried out with a view to a possible scientific publication. If possible, also release associate code and data.

Profil du candidat :
Skills required :

– Programming skills

– Interest in data analysis

– Scientific rigor

– Curiosity and open-mindedness

– Analytical, writing and summarizing skills

How to apply :

Send CV, cover letter and M1 (or 4th year) transcript to :

simon.madec@cirad.fr , roberto.interdonato@cirad.fr

specifying as e-mail subject “CANDIDATURE STAGE DIGITAG”.

Additional Information :

– Duration of 6 months, starting February 2025

– Remuneration: CIRAD salary scale, ~600 euros/month

– The internship will take place at CIRAD, in the UMR TETIS (Territory, Environment,

Remote Sensing and Spatial Information), located at the Maison de la

Télédétection in Montpellier.

– The internship will be carried out in collaboration with Assistant Professor

Claudia Paris and Yue Dou, currently working at the ITC Faculty of Geographic Information

Science and Earth Observation, University of Twente, Netherlands.

Formation et compétences requises :
Skills required :

– Programming skills

– Interest in data analysis

– Scientific rigor

– Curiosity and open-mindedness

– Analytical, writing and summarizing skills

How to apply :

Send CV, cover letter and M1 (or 4th year) transcript to :

simon.madec@cirad.fr , roberto.interdonato@cirad.fr

specifying as e-mail subject “CANDIDATURE STAGE DIGITAG”.

Additional Information :

– Duration of 6 months, starting February 2025

– Remuneration: CIRAD salary scale, ~600 euros/month

– The internship will take place at CIRAD, in the UMR TETIS (Territory, Environment,

Remote Sensing and Spatial Information), located at the Maison de la

Télédétection in Montpellier.

– The internship will be carried out in collaboration with Assistant Professor

Claudia Paris and Yue Dou, currently working at the ITC Faculty of Geographic Information

Science and Earth Observation, University of Twente, Netherlands.

Adresse d’emploi :
500 rue Jean François Breton, 34090, Montpellier

Stage IA en cancérologie avec la possibilité de poursuivre en thèse
Dec 31 2025 – Jan 1 2026 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Sesstim, Aix Marseille Université
Durée : 6 Mois
Contact : raquel.urena@univ-amu.fr
Date limite de publication : 2025-12-31

Contexte :
Ce stage s’inscrit dans un projet de recherche à l’interface de l’intelligence artificielle et de la santé, mené au sein d’une équipe multidisciplinaire réunissant informaticiens, médecins, biostatisticiens et chercheurs en santé publique.

L’objectif global est de modéliser et d’analyser les parcours de soins longitudinaux des patients à partir de données massives issues des bases médico-administratives (SNDS).

Ces travaux permettront d’identifier des profils de patients, des ruptures de parcours et des facteurs de réhospitalisation, afin d’améliorer la compréhension et la personnalisation de la prise en charge.
Le stage se déroulera au sein de l’équipe CaLIPSo / SESSTIM (Aix–Marseille Université), sur le IPC à Marseille, dans un environnement stimulant à l’interface de l’IA, de la santé et des sciences sociales.
Le stagiaire sera encadré par Raquel URENA, maître de conférences en informatique especialiste en IA et santé, et travaillera en interaction directe avec des chercheurs en IA, des épidémiologistes et des cliniciens de de l’Institut Paoli-Calmettes, sur des données massives réelles à fort impact sociétal.

Sujet :
Objectifs du stage
Le stagiaire participera à la conception et au développement de modèles innovants de modélisation automatique des trajectoires de soins en utilisant des techniques avancées de representation learning et de Large Language Models (LLMs) appliquées aux données de santé.
Les principales missions incluent :
• Extraction et structuration de trajectoires temporelles à partir de données massives (diagnostics, actes, hospitalisations, prescriptions).
• Développement de représentations patient à l’aide de modèles de deep learning.
• Comparaison et évaluation de différentes approches de representation learning.
• Identification de profils de soins, visualisation et interprétation des trajectoires representations.

Profil du candidat :
Compétences requises
• Solides connaissances en machine learning, representation learning et modélisation de séries temporelles.
• Maîtrise de Python (Pandas, NumPy, Scikit-learn, PyTorch/TensorFlow) et des bases de données SQL.
• Langue française indispensable, niveau avancé en anglais (oral et écrit).
• Excellentes capacités de rédaction scientifique et de communication.
• Curiosité, rigueur scientifique, autonomie et goût pour le travail interdisciplinaire.
Environnement de travail

Formation et compétences requises :
M2 Informatique/ IA/ Mathémathiquées appliqués

Adresse d’emploi :
232 Bd de Sainte-Marguerite, 13009 Marseille

Jan
15
Thu
2026
Intégration de la variabilité temporelle dans la prédiction des communautés phytoplanctoniques à l’aide du deep learning.
Jan 15 – Jan 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire Oceanographique de Villefranche-sur-me
Durée : 6 mois
Contact : enza.labourdette@imev-mer.fr
Date limite de publication : 2026-01-15

Contexte :
Le phytoplancton regroupe les micro-organismes marins dérivant au gré des courants et capables de
produire de la matière organique grâce à la photosynthèse.
Il joue un rôle essentiel dans le fonctionnement du système Terre : il contribue à environ la moitié de la
photosynthèse planétaire, participe au stockage du carbone à l’échelle climatique via la pompe
biologique, et constitue la base des réseaux trophiques marins.
Mieux comprendre la répartition et la diversité du phytoplancton, en lien avec les conditions physiques
et biogéochimiques de son environnement, est donc fondamental. Cela permet d’estimer plus finement
sa biomasse, son rôle dans les cycles biogéochimiques et d’anticiper les réorganisations induites par les
changements climatiques et océaniques globaux.
Cependant, l’observation directe du phytoplancton à grande échelle demeure limitée, car elle repose sur
des campagnes en mer et des prélèvements coûteux. Les données HPLC (High Performance Liquid
Chromatography), qui permettent d’analyser les pigments photosynthétiques pour quantifier
précisément les communautés phytoplanctoniques, offrent une référence fiable, mais restent
coûteuses et spatialement limitées.
Pour étendre ces observations ponctuelles à l’échelle globale, les satellites d’observation de la couleur
de l’océan constituent un outil clé. Les algorithmes empiriques actuels permettent d’estimer la
composition du phytoplancton à partir des réflectances optiques , mais ils présentent encore
une marge d’erreur importante et ne capturent pas toujours la complexité spatiale et temporelle des
structures océaniques (fronts, tourbillons, etc.).

Sujet :
Ce stage s’inscrit dans la continuité d’une thèse centrée sur la prédiction des Phytoplankton Functional
Types (PFTs) à partir de la couleur de l’eau et de variables satellitaires à l’aide de méthodes de deep
learning.
L’objectif principal est d’améliorer la robustesse et la précision des prédictions en intégrant explicitement
la dimension temporelle des données au moyen de méthodes avancées de deep learning.
Concrètement, cela consiste à exploiter les images satellites des jours ou des semaines précédentes pour
estimer la quantité et la composition du phytoplancton à un instant t donné. En effet, la croissance du
phytoplancton est un processus dynamique, et son état actuel dépend fortement des états antérieurs du
système.
Un pipeline opérationnel est déjà en place :
– les données satellitaires et in situ ont été extraites et prétraitées,
– des modèles de type MLP (Multi-Layer Perceptron) ont été développés et évalués,
– une première étude de la sensibilité, en termes de qualité des prédictions, aux variables d’entrée
et à l’architecture du modèle a été menée,
– une seconde étude, sur l’intégration de la dimension spatiale dans les données d’entrée, est en
cours.
Le stage consistera à poursuivre et à approfondir ces travaux, notamment en :
– explorant de nouvelles architectures de deep learning (par ex. RNN) permettant de mieux
capturer la structure temporelle des données ;
– évaluant l’impact de cette intégration sur la qualité des prédictions de PFTs ;
– affinant l’interprétation des modèles pour mieux comprendre les liens entre conditions
environnementales et composition des communautés phytoplanctoniques.
Ce travail contribuera directement à l’amélioration des produits satellitaires de distribution
phytoplanctonique à l’échelle globale, utiles pour le suivi de la santé des écosystèmes marins et la
gestion durable des ressources océaniques.

Objectifs du Stage :
– Compréhension de la problématique biologique.
– Étude des relations entre les propriétés optiques de l’eau et les PFTs.
– Prise en main et optimisation du pipeline existant, de la sélection et du traitement des données
jusqu’à leur exploitation dans un modèle de deep learning.
– Analyse de la variabilité spatio-temporelle : quantifier l’impact de l’intégration des dimensions
spatiale et temporelle sur la prédiction des PFTs.
– Mise en forme et valorisation des résultats pour une utilisation dans des travaux de recherche à
publier.

Profil du candidat :

Formation et compétences requises :
– Intérêt marqué pour la recherche et les sciences marines.
– Maîtrise du langage Python.
– Connaissances en deep learning (PyTorch).
– Des notions en écologie, biologie marine ou océanographie seraient un atout.

Adresse d’emploi :
181 chemin du Lazaret Villefranche-sur-Mer, France

Document attaché : 202511140931_STAGE 2026 – ANNONCE.pdf

Leveraging Vision–Language Models for multi-modal information extraction for Knowledge Graph constructio
Jan 15 – Jan 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ICube
Durée : 5-6 mois
Contact : florence.leber@engees.unistra.fr
Date limite de publication : 2026-01-15

Contexte :
The restoration or naturalization of hydro-ecosystems is a major challenge for the coming years in order to protect and preserve the quality and quantity of river water. Many restoration works – both recent and historical – have generated large amounts of textual documentation (reports, archival documents, project plans, regulations, scientific articles) and visual material (maps, drawings, aerial/satellite imagery, photographs, cross-sectional charts). However, that material is often unstructured, scattered across institutions, in multiple languages, and not organized to support comparative analysis, learning, or decision-making effectively.

Sujet :
The main research task involves applying and refining VLMs to extract complementary information from visual and textual data. The VLMs should recognize and describe restoration structures, spatial configurations, and temporal stages (before, during, and after restoration) from images. They should extract objectives, methodologies, outcomes, and environmental parameters from text. A key scientific challenge lies in the multi-modal alignment of information linking visual elements and textual references to produce consistent and interpretable outcomes.

Building on these results, the internship will contribute to the enrichment of an already existing structured knowledge model (ontology), describing restoration cases through key properties including intervention type, environmental context, methods, results, constraints, and costs. In addition to enriching the knowledge model, another key point is populating the knowledge model by constructing knowledge graphs with information extracted from images and text, ensuring querying, comparison, and visualization by researchers and practitioners.

Profil du candidat :
Knowledge on data science methods, knowledge representation and reasoning, knowledge graphs.
Languages: Python, java, owl/sparql.
Interest in the application domain, ability to work with experts who are not computer scientists would be appreciated.

Formation et compétences requises :
Student about to graduate a Master or Engineer (Bac + 5) with a specialization in Computer Science.

Adresse d’emploi :
ICube — 300 bd Sébastien Brant – CS 10413 – F-67412 Illkirch Cedex
Meetings at ENGEES, 1 cour des cigarières, Strasbourg.

Document attaché : 202511141617_Sujet_stage_TETRA_VLM.pdf

Jan
16
Fri
2026
Détection et caractérisation de façades par apprentissage profond dans des images GSV
Jan 16 – Jan 17 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : PRISME / Université d’Orléans
Durée : 6 mois
Contact : youssef.fouzai@etu.univ-orleans.fr
Date limite de publication : 2026-01-16

Contexte :
Ce stage s’inscrit dans le cadre du projet régional CERES, porté par le BRGM en partenariat avec le laboratoire PRISME de l’Université d’Orléans, Thélem Assurances et l’Agglomération de Blois. L’objectif global du projet est de caractériser grâce à des
techniques d’intelligence artificielle les éléments exposés du territoire du Centre-Val de Loire face aux risques naturels. On s’appuie sur des images satellitaires, d’autres issues de Google Street View (GSV )et des données cartographiques.

Sujet :
Dans le cadre du stage, les travaux à effectuer visent à approfondir l’analyse des façades de bâtiments, afin de produire des éléments exploitables pour caractériser leur
vulnérabilité face aux risques naturels dont le retrait/gonflement argileux qui fissure les constructions. Une façade contient de nombreux indicateurs de vulnérabilité auxquels l’expert attache une grande attention comme la surface et la position des portes et fenêtres ou la géométrie du bâtiment, pour l’affecter à une classe de vulnérabilité.
L’exploitation des images GSV utilisera des modèles deep learning pour détecter les façades dans les images et extraire des caractéristiques permettant d’en déduire un niveau de vulnérabilité Les résultats du stage seront exploités dans le cadre de la thèse du doctorant qui participera à l’encadrement du stagiaire.

Profil du candidat :
BAC+5 (Master 2/ école ingénieur) en informatique.

Formation et compétences requises :
BAC+5 (Master 2/ école ingénieur) en informatique avec de bonnes connaissances en traitement d’images, la maîtrise de la programmation Python (Pandas, NumPy, Scikitlearn, PyTorch/TensorFlow) ainsi qu’en apprentissage profond et un bon niveau d’anglais. Quelques connaissances en Systèmes d’Information Géographique (SIG) seraient également appréciées.

Adresse d’emploi :
Polytech, 12 Rue de Blois, 45100 Orléans

Document attaché : 202510311400_Stage Master_PRISME_CERES_v1.pdf

Jan
31
Sat
2026
Caractérisation de profils clients à partir de données transactionnelles partielles et anonymes : Application au secteur du commerce de proximité
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIAS
Durée : 6 mois
Contact : baron@ensma.fr
Date limite de publication : 2026-01-31

Contexte :
Bimedia, filiale du groupe Orisha, est une entreprise spécialisée dans les solutions destinées aux points de vente de proximité (bureaux de tabac, boulangeries, etc.). Son offre repose sur un ensemble de services comprenant du matériel (caisses enregistreuses à double écran : le premier pour le commerçant et le second pour le client final), un logiciel d’encaissement, des solutions dématérialisées (cartes prépayées, etc.), ainsi que des dispositifs d’animation commerciale via des publicités diffusées sur l’écran client des caisses. Si le point de vente est identifié, le client final, lui, ne l’est pas. Pour pallier cette limite, une initiative récente baptisée BMyShop 1, proposée par Bimedia sous la forme d’une application mobile, permet d’associer certains clients finaux grâce à un programme de fidélité. Les informations collectées se limitent aux données strictement nécessaires (prénom, nom, âge) en conformité avec la réglementation (RGPD). Toutefois, cette base de clients finaux identifiés reste restreinte par rapport au volume de transactions réellement effectuées dans les commerces par des clients finaux anonymes, ce qui pose un défi scientifique pour exploiter des données partielles et anonymisées afin de caractériser, enrichir ou déduire des profils clients représentatifs.

Bimedia s’est associée au laboratoire LIAS, dans le cadre d’un projet de recherche appliquée. Trois enseignants-chercheurs et un ingénieur de recherche encadreront un étudiant de Master 2 (université ou école d’ingénieurs). Le travail attendu visera à développer des techniques d’apprentissage automatique (clustering, apprentissage semi-supervisé, génération de données synthétiques, intégration de données externes, etc.) pour construire des profils représentatifs tout en garantissant l’anonymat des participants. Pour comparer sa proposition avec l’état de l’art, l’étudiant devra identifier des bancs d’essai adaptés ou en définir un nouveau. Un objectif secondaire consistera à calculer un indice de confiance sur le profil établi en utilisant la théorie des modèles probabilistes.

Sujet :
L’objectif de ce stage est d’explorer des approches d’analyse et d’enrichissement de données à partir des bases transactionnelles (l’historique d’achats) issues d’une part des clients identifiés via l’application BMyShop et, d’autre part, des clients anonymes. Le stage visera à définir des techniques permettant de caractériser et d’associer des profils clients à partir de données partielles :

– élaboration de modèles prédictifs basés sur l’état de l’art et adaptés aux besoins spécifiques de Bimedia ;
– évaluation des différents modèles obtenus ;
– calcul d’indices de confiance sur les prédictions.

Si possible, les techniques développées devront mener à des modèles explicables pour que les analystes métiers de Bimedia puisse comprendre et accorder une certaine confiance aux résultats obtenus.

À noter que la réalisation d’un prototype de faisabilité sera demandé. Il ne s’agit pas de développer un logiciel industriel, qui lui sera à la charge de l’entreprise. L’entreprise souhaite juste s’assurer de la faisabilité technique et scientifique de la démarche proposée.

Profil du candidat :
Le candidat doit être en Master 2 en Informatique ou en dernière année de préparation d’un diplôme d’ingénieur spécialité Informatique.

Formation et compétences requises :
Une bonne connaissance du langage de programmation Python et des bibliothèques usuelles d’apprentissage automatique est requise. Un bon niveau en français est fondamental.

Adresse d’emploi :
https://www.lias-lab.fr/jobs/2026_lias_idd_profilsclients_fr.pdf

Document attaché : 202511071103_2026_lias_idd_profilsclients_fr.pdf

Modélisations par approches neuronales des déformations d’un organe observé par IRM dynamique.
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire d’Informatique et Systèmes – LIS – UMR
Durée : 5 à 6 mois
Contact : marc-emmanuel.bellemare@univ-amu.fr
Date limite de publication : 2026-01-31

Contexte :
Le stage se déroulera à Marseille essentiellement au laboratoire d’informatique et des systèmes (LIS) dans l’équipe Images & Modèles sur le campus de St Jérôme (https://im.lis-lab.fr).
Le LIS UMR 7020 fédère plus de 375 membres. La recherche y est structurée au sein de pôles (calcul, science des données, analyse et contrôle des systèmes, signal et image), et centrée sur les activités dans les domaines de l’informatique, de l’automatique, du signal et de l’image. L’apprentissage profond en particulier y est un thème transverse et le LIS dispose d’une plateforme dédiée, un cluster de nœuds GPU ainsi que le personnel de gestion nécessaire.

Sujet :
La modélisation des déformations des organes abdominaux revêt une importance cruciale pour la santé des patients et pour de nombreuses applications cliniques, telles que la planification de la radiothérapie adaptative, le suivi de la progression des maladies ou encore l’analyse biomécanique des tissus. L’imagerie par résonance ma- gnétique (IRM) peut offrir une visualisation spatiale et en coupe des déformations d’organes in vivo. Cependant, l’état de l’art actuel présente plusieurs limitations, notamment en termes de résolution et de reconstruction fidèle de l’évolution tridimensionnelle et dynamique des organes. L’objectif de ce stage est de proposer des solutions innovantes pour pallier ces limites.
Dans le cadre d’un projet de recherche mené en collaboration avec l’AP-HM, nous nous intéressons au suivi des déformations des principaux organes pelviens. L’approche actuelle [1, 4] consiste à détecter un contour sur une série d’images 2D, puis à effectuer un échantillonnage spatial de ce contour initial. Les contours suivants sont ensuite estimés de manière récurrente à l’aide d’un modèle de transport optimal, la déformation finale étant calculée à partir de la distance entre les points d’échantillonnage obtenus. Cependant, cette méthode présente plusieurs faiblesses : la construction de l’échantillonnage est souvent arbitraire, le transport optimal peut introduire des biais difficiles à maîtriser, et la définition même de la distance utilisée reste discutable. Ces éléments limitent la robustesse et la généralisabilité de l’approche, malgré son intérêt scientifique certain.
Afin de dépasser ces limitations, ce stage vise à exploiter des modèles et méthodes récents capables d’apporter plus de cohérence et de précision à la modélisation des déformations. Le premier axe d’amélioration concerne la discrétisation : celle-ci peut être évitée grâce aux représentations neuronales implicites (Implicit Neural Representations, INRs). Ces dernières reposent sur le principe d’approximation universelle des réseaux de neurones, leur permettant de représenter n’importe quelle forme continue. Ainsi, le contour précédemment échantillonné sera alors directement modélisé par un réseau neuronal.
Pour l’estimation des déformations, nous proposons d’utiliser des réseaux de neurones informés par la phyique (Physics-Informed Neural Networks, PINNs). L’idée est d’intégrer des contraintes issues des équations mécaniques de la déformation afin d’estimer à la fois le champ de déformation et les paramètres des lois de comportement des tissus.
En résumé, le stage a pour objectif de combiner les représentations neuronales implicites et les réseaux de neurones informés par la physique afin de modéliser les déformations d’organes alignées sur des données d’imagerie IRM, offrant ainsi une approche plus continue, précise et physiquement cohérente de la dynamique des organes observés.

Réalisation
L’objectif principal de ce stage est de développer et d’évaluer des modèles de déformation d’organes, en s’appuyant sur des approches d’apprentissage profond et de modélisation physique.
Les étapes et objectifs clés sont les suivants :
— Développer une représentation neuronale implicite (INR) des contours de déformation de la vessie en 2D + temps.
— Évaluer les performances de cette représentation en termes de précision et de continuité temporelle.
— Concevoir une approche basée sur les réseaux de neurones informés par la physique afin de reconstruire le champ de déformation et d’estimer les paramètres mécaniques du comportement.
— Évaluer les performances du PINN selon deux perspectives possibles :
— comme modèle hybride, intégrant à la fois les données expérimentales et les contraintes issues des équations physiques, afin de guider l’apprentissage vers des solutions cohérentes avec les lois mécaniques.
— ou comme problème inverse, visant à identifier les paramètres physiques (par ex. propriétés mécaniques des tissus) et les déformations spatiales à partir des données observées, tout en respectant les équations de la mécanique des milieux continus.
— Perspective d’extension vers la 3D+temps

Données
Le projet s’appuiera sur un jeu de données d’IRM dynamiques de la vessie, collecté auprès de 50 patientes. L’échantillonnage temporel, à raison d’une image par seconde, des séquences sagittales dynamiques fournit 12 images par patiente. Les contours de la vessie ont été extraits de manière manuelle ou semi-automatique, sur l’ensemble des images de la séquence dynamique. Au total, 600 contours ont ainsi été obtenus, constituant la base de données utilisée pour l’apprentissage et l’évaluation des performances du modèle.

Profil du candidat :
Le ou la candidat.e sera intéressé.e par un domaine pluridisciplinaire embrassant l’analyse d’image, les mathématiques appliquées, le deep-learning, dans un contexte médical.
Des connaissances en équations aux dérivées partielles (EDP) et en méthodes de résolution par éléments finis constituent un atout supplémentaire pour ce stage.

Formation et compétences requises :
De formation Bac+5 dans une formation concernée par le traitement d’image. Une expérience de la programmation avec l’environnement python est un pré-requis, la connaissance de la bibliothèque JAX serait un plus.
Le stage aura une durée de 4 à 6 mois avec la gratification d’usage (de l’ordre de 600€ par mois).

Adresse d’emploi :
Laboratoire d’Informatique et Systèmes – LIS – UMR CNRS 7020 – Aix-Marseille Université
Campus scientifique de St Jérôme – Av. Escadrille Normandie Niemen -13397 Marseille Cedex 20
www.lis-lab.fr

Document attaché : 202511071339_M2_stage_LIS_PINN.pdf

Segmentation d’IRM multiplan par réseaux de neurones profonds
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire d’Informatique et Systèmes LIS – UMR
Durée : 5 à 6 mois
Contact : marc-emmanuel.bellemare@lis-lab.fr
Date limite de publication : 2026-01-31

Contexte :
Le stage se déroulera à Marseille essentiellement au laboratoire d’informatique et des systèmes (LIS) dans l’équipe Images & Modèles sur le campus de St Jérôme (https://im.lis-lab.fr).
Le LIS UMR 7020 fédère plus de 375 membres. La recherche y est structurée au sein de pôles (calcul, science des données, analyse et contrôle des systèmes, signal et image), et centrée sur les activités dans les domaines de l’informatique, de l’automatique, du signal et de l’image. L’apprentissage profond en particulier y est un thème transverse et le LIS dispose d’une plateforme dédiée, un cluster de nœuds GPU ainsi que le personnel de gestion nécessaire.

Sujet :
Le stagiaire s’attachera à la segmentation des images acquises lors de l’observation par IRM dynamique des déformations des organes pelviens afin de produire des reconstructions 3D des surfaces en mouvement.
Les troubles de la statique pelvienne représentent un enjeu de santé publique. Ils regroupent un ensemble de pathologies associant une perte des rapports anatomiques normaux des organes pelviens, et une altération dramatique de la qualité de vie des malades. Ces pathologies sont handicapantes à des degrés variés mais leur physiopathologie reste encore mal connue ce qui complique leur prise en charge. Dans le cadre d’une collaboration avec le service de chirurgie digestive de l’AP-HM, de nouvelles acquisitions IRM, associées à une reconstruction adaptée, ont permis la visualisation 3D des organes en mouvement. Des résultats probants ont été récemment obtenus et publiés pour l’observation de la vessie (Figure) et il s’agit de s’intéresser aux autres organes pelviens. Des acquisitions multi-planaires ont été réalisées dans des plans non classiques ce qui complique la reconnaissance des organes. Ainsi la segmentation des principaux organes impliqués est une étape primordiale mais difficile. Les partenaires cliniciens ont réalisé des segmentations manuelles des organes sur ces plans ce qui permet de disposer d’une vérité-terrain. Nous envisageons de proposer un nouveau modèle de réseau, adapté à la configuration des plans d’acquisition.
Les problématiques de recalage, de segmentation et de modèles 3D, au cœur du projet, seront abordées selon les compétences et préférences du stagiaire.

Profil du candidat :
Le candidat ou la candidate de niveau Bac+5 dans une formation intégrant le traitement d’images, sera intéressé(e) par un projet pluridisciplinaire et par l’imagerie médicale. Les domaines abordés concernent les réseaux de neurones profonds, la segmentation d’IRM et la reconstruction 3D.
Le stage aura une durée de 4 à 6 mois avec la gratification d’usage (de l’ordre de 600€).

Formation et compétences requises :
La compétence en programmation python est un pré-requis.
Des compétences en mathématiques appliquées seront particulièrement appréciées. Une expérience de la programmation avec l’environnement PyTorch serait un plus.

Adresse d’emploi :
Laboratoire d’Informatique et Systèmes – LIS – UMR CNRS 7020 – Aix-Marseille Université
Campus scientifique de St Jérôme – Av. Escadrille Normandie Niemen -13397 Marseille Cedex 20
www.lis-lab.fr

Document attaché : 202511071329_Sujet_Master2_DL&SegmentationMultiPlan.pdf

Stage M2 – Distilling geospatial foundation models in Earth observation
Jan 31 – Feb 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : IRISA/UBS
Durée : 6 mois
Contact : minh-tan.pham@irisa.fr
Date limite de publication : 2026-01-31

Contexte :

Sujet :
Please see the attached PDF file.

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
IRISA-UBS, 56000 Vannes

Document attaché : 202510091448_2025_Master_topic_Dreams.pdf