Postes/PostDocs/CDD
Nov 16 Sun 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IMT Atlantique Durée : 24 mois Contact : francois.rousseau@imt-atlantique.fr Date limite de publication : 2025-11-16 Contexte : Grande école d’ingénieur généraliste de l’IMT-Institut Mines-Télécom, premier groupe d’écoles d’ingénieurs de France, IMT Atlantique a pour ambition d’accompagner les transitions, de former des ingénieurs responsables et mettre l’excellence scientifique et technique au service de l’enseignement, de la recherche et de l’innovation. Dans le cadre du projet ICI (Imagerie Computationnelle pour l’IRM ultra-bas champ), qui vise à à développer un système d’imagerie IRM portable et accessible, fondé sur une approche computationnelle et sur l’intelligence artificielle, en collaboration avec le CHU de Brest et l’entreprise Multiwave (Marseille), nous recrutons Ingénieure ou un Ingénieur au sein de notre département Science des données (DSD). Sujet : En collaboration avec l’équipe du projet, vous développez et maintenez la chaine logicielle de reconstruction et d’analyse d’images IRM ultra-bas champ (Python, PyTorch). Vous assurez la gestion, le stockage et la diffusion des données IRM acquises sur la machine ultra-bas champ en lien avec les partenaires du projet. Vous accompagnez les chercheurs et ingénieurs dans l’utilisation des outils développés et la valorisation des résultats (documentation, packaging, diffusion open source). Vous contribuez à la coordination technique du projet avec les partenaires industriels (Mutiwave) et académiques (LaTIM, CHU de Brest). Profil du candidat : Diplôme Bac + 5 (ingénieur ou master) en informatique, traitement du signal, mathématiques appliquées ou équivalent. Formation et compétences requises : · Solide expérience en développement Python et PyTorch (ou frameworks équivalents). · Bonnes connaissances en traitement et reconstruction d’images, idéalement en imagerie médicale. · Pratique des outils de gestion de code (Git, GitLab, CI/CD). · Connaissances des formats et bibliothèques liés à l’IRM (NumPy, NiBabel, TorchIO). · Autonomie, rigueur et sens du travail collaboratif. Adresse d’emploi : IMT Atlantique, Campus de Brest Informations & contacts : Sur le contenu du poste : François ROUSSEAU – Enseignant Chercheur : francois.rousseau@imt-atlantique.fr Sur les aspects administratifs/RH : Fanny BERNARD – Assistante recrutement – fanny.bernard@imt-atlantique.fr Date limite de candidature : 16/11/2025 Début du contrat souhaité : Janvier 2026 Entretien : Au fil de l’eau Lien : https://institutminestelecom.recruitee.com/o/ingenieure-ou-ingenieur-de-recherche-et-developpement-en-imagerie-computationnelle-et-apprentissage-profond-pour-lirm-ultra-bas-champ-cdd-24-mois Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IMT Atlantique Durée : 24 mois Contact : francois.rousseau@imt-atlantique.fr Date limite de publication : 2025-11-16 Contexte : Grande école d’ingénieur généraliste de l’IMT-Institut Mines-Télécom, premier groupe d’écoles d’ingénieurs de France, IMT Atlantique a pour ambition d’accompagner les transitions, de former des ingénieurs responsables et mettre l’excellence scientifique et technique au service de l’enseignement, de la recherche et de l’innovation. Le département Science des données (DSD) développe des activités de recherche et d’enseignement dans le domaine interdisciplinaire des sciences des données (« Data Science »), en forte interaction avec des enjeux industriels et sociétaux (santé et environnement). Ses activités de recherche s’inscrivent dans le cadre des laboratoires Lab-STICC (UMR CNRS 6285) et LaTIM (UMR 1101 INSERM). Le projet ICI (Imagerie Computationnelle pour l’IRM ultra-bas champ) financé par le programme Inria Quadrant, vise à développer un système d’imagerie IRM portable et accessible, fondé sur une approche computationnelle et sur l’intelligence artificielle, en collaboration avec le CHU de Brest et l’entreprise Multiwave (Marseille). Sujet : Le projet ICI ambitionne de concevoir une IRM ultra-bas champ portable, permettant de réaliser des examens d’imagerie cérébrale au chevet du patient, notamment pour le suivi du développement cérébral des nouveau-nés prématurés. La post-doctorante ou le post-doctorant participera au développement du logiciel de reconstruction d’images, à la gestion des données expérimentales, à l’exploitation des acquisitions IRM et à la mise en œuvre de pipelines de traitement intégrant des méthodes d’apprentissage profond. Profil du candidat : Doctorat en traitement du signal/image, informatique, mathématiques appliquées, ou domaine connexe, obtenu il y a moins de 3 ans. Formation et compétences requises : Excellente maîtrise de la programmation en Python et d’un framework d’apprentissage profond, PyTorch de préférence. Solides connaissances en traitement d’images, en problèmes inverses et en apprentissage automatique (machine learning). Expérience significative en recherche, démontrée par des publications scientifiques de qualité. Adresse d’emploi : IMT Atlantique, Campus de Brest Informations & contacts : Sur le contenu du poste : François ROUSSEAU – Enseignant Chercheur : francois.rousseau@imt-atlantique.fr Sur les aspects administratifs/RH : Fanny BERNARD – Assistante recrutement : fanny.bernard@imt-atlantique.fr Date limite de candidature : 16/11/2025 Début du contrat souhaité : Janvier 2026 Entretien : Au fil de l’eau Lien : https://institutminestelecom.recruitee.com/o/post-doctorat-en-imagerie-computationnelle-pour-lirm-ici-imagerie-computationnelle-pour-lirm-ultra-bas-champ-cdd-24-mois Dec 31 Wed 2025 Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : CRISTAL Lab – UMR CNRS 9189/University of Lille Durée : 24 months – Ideally Contact : hayfa.zgaya-biau@univ-lille.fr Date limite de publication : 2025-12-31 Contexte : The IARISQ project, funded by the French National Research Agency (ANR), aims to develop advanced artificial intelligence (AI) models to predict the toxicity thresholds of airborne particles, taking into account their physico-chemical properties and environmental dynamics. The project combines AI, probabilistic modeling, fuzzy logic, and explainable AI (XAI) to build a robust decision support system for public health and environmental risk assessment. Sujet : We are seeking a highly motivated postdoctoral researcher with strong expertise in machine learning and data science. The selected candidate will contribute to the design, implementation, and evaluation of predictive AI models for toxicity thresholds, with a focus on: – Developing deep learning models (e.g., GANs, Transformers, TabNet) – Managing uncertainty with probabilistic (e.g., GPR, Bayesian Neural Networks) and fuzzy logic approaches (e.g., Interval Type-2 Fuzzy Logic) – Applying explainable AI techniques (e.g., SHAP, LIME, GrC) to identify influential variables – Collaborating with environmental scientists and air quality experts – Preparing scientific publications and sharing code (GitHub, open-source) Related Publications The candidate will contribute to a project with a strong publication record in top-tier journals and conferences. Recent related publications include: 1. Idriss Jairi, Sarah Ben-Othman, Ludivine Canivet, Hayfa Zgaya-Biau, Explainable-based approach for the air quality classification on the granular computing rule extraction technique, Engineering Applications of Artificial Intelligence, 2024. (Q1, IF: 7.5, AI/Software) https://doi.org/10.1016/j.engappai.2024.108096 2. Idriss Jairi, Sarah Ben-Othman, Ludivine Canivet, Hayfa Zgaya-Biau, Enhancing Air Pollution Prediction: A Neural Transfer Learning Approach across Different Air Pollutants, Environmental Technology & Innovation, 2024. (Q1, IF: 6.7, Environmental Engineering) https://doi.org/10.1016/j.eti.2024.103793 3. Idriss Jairi, Amelle Rekbi, Sarah Ben-Othman, Slim Hammadi, Ludivine Canivet, Hayfa Zgaya-Biau, Enhancing particulate matter risk assessment with novel machine learning-driven toxicity threshold prediction, Engineering Applications of Artificial Intelligence, 2025. (Q1, IF: 7.5, AI/Software) https://doi.org/10.1016/j.engappai.2024.109531 Conference Doctoral Consortium Participant, ECAI 2024 – European Conference on Artificial Intelligence, Santiago de Compostela, Spain – October 2024. https://anaellewilczynski.pages.centralesupelec.fr/ecai-2024-dc/accepted.html Profil du candidat : PhD in Artificial Intelligence, Machine Learning, Data Science, or a closely related field. – Strong experience in developing and evaluating deep learning models (e.g., GANs, Transformers, LSTM). – Solid background in uncertainty modeling, explainable AI (XAI), or hybrid AI approaches is a plus. – Excellent programming skills (Python, PyTorch or TensorFlow). – Proven ability to conduct high-quality research, with publications in top-tier conferences or journals. – Autonomy, creativity, and ability to work in a multidisciplinary environment (AI + environment + public health). – Strong communication skills (oral and written) in English. Formation et compétences requises : PhD in computer Science – Artificial Intelligence Adresse d’emploi : https://www.cristal.univ-lille.fr UMR CRIStAL Université de Lille – Campus scientifique Bâtiment ESPRIT Avenue Henri Poincaré 59655 Villeneuve d’Ascq Offre en lien avec l’Action/le Réseau : DatAstro/– — – Laboratoire/Entreprise : CRIStAL / Université de Lille / CNRS / Centrale Li Durée : 18 mois Contact : jenny.sorce@univ-lille.fr Date limite de publication : 2025-12-31 Contexte : The project is part of the Chaire WILL UNIVERSITWINS (UNIVERSe dIgital TWINS) led by Jenny Sorce (funded by the Université de Lille under the initiative of excellence). The successful candidate will be jointly supervised by Jenny Sorce (CNRS Researcher in cosmology) and Pierre Antoine Thouvenin (Assoc. Prof., Centrale Lille), and hosted in the CRIStAL lab (UMR 9189), Lille, France. The work will be conducted in collaboration with Jean Prost (Assoc. Prof., ENSEEIHT) in the IRIT lab. More than 2000 GPU.hours have already been secured for the project at TGCC on the Irene/Rome partition. They will be used to finetune, validate and deploy the surrogate model to perform Bayesian inference. Access to the medium scale computing center from the University of Lille is also ensured. Lien vers le site du projet : https://sorcej.github.io/Jenny.G.Sorce/universitwins.html Lien vers l’offre d’emploi : https://sorcej.github.io/Jenny.G.Sorce/jobads/postdocuniversitwins.pdf Sujet : According to the standard cosmological model, about 95% of the Universe is dark. Recent large survey analyses reveal tensions with this model. For instance, the local measurement of the expansion rate and the estimate of the Universe homogeneity differ by more than three standard deviations from those inferred with the first light of the Universe. These discrepancies are at the heart of a heated debate in cosmology to determine whether these tensions require new physical models to be acccounted for, or are mere consequences of systematic biases in the observation processing pipeline. Part of this pipeline relies on cosmological simulations to act as the missing ground truth. However, the simulations only reproduce the statistics of the local cosmic web. A new type of simulations, qualified as constrained, is emerging. Initial velocity and density fields of such simulations stem from observational constraints. Profil du candidat : PhD in signal/image processing, computer science or applied mathematics. Formation et compétences requises : The project requires a strong background in data science and/or machine learning (statistics, optimization), signal & image processing. Very good Python coding skills are expected. A B2 English level is mandatory. Knowledge in C++ programming, as well as experience or interest in parallel/distributed code development (MPI, OpenMP, CUDA, …) will be appreciated. Adresse d’emploi : UMR CRIStAL Université de Lille – Campus scientifique Bâtiment ESPRIT Avenue Henri Poincaré 59655 Villeneuve d’Ascq Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : Université de technologie de Troyes Durée : 4 ans (2+2) Contact : malika.kharouf@utt.fr Date limite de publication : 2025-12-31 Contexte : Présentation de l’établissement : L’Université de technologie de Troyes créée en 1994, est aujourd’hui classée parmi les 10 écoles d’ingénieurs les plus importantes en France et forme 3100 étudiants chaque année. Tournée vers l’excellence et en interaction permanente avec le monde économique, l’UTT s’inscrit durablement avec une stratégie d’ouverture et de construction du futur pour un avenir soutenable. En tant que leader du projet d’Université Européenne EUt+, au côté d’une alliance regroupant 9 partenaires, l’UTT est à la fois, à l’initiative, pilote et établissement expérimental pour le développement des nouvelles méthodes et orientations de l’EUt+. Acteur du développement économique et social de son territoire, Aube, Champagne et Grand Est, l’UTT est implantée à Troyes, ville dynamique à taille humaine, riche d’histoire de patrimoine et de culture, ce qui permet à chacun de s’épanouir dans un cadre privilégié à proximité de la nature. Missions de l’agent : Rattaché à la Direction de la formation et de la pédagogie, l’ingénieur de formation orienté IA fera partie d’une équipe projet impliquant la formation initiale, la formation continue, la coopérative pédagogique (le centre d’innovation pédagogique de l’UTT). Il/elle jouera un rôle clé dans la conception, la structuration et la mise en œuvre de ce nouveau programme de formation, en collaboration avec des experts du domaine, des enseignants, des ingénieurs pédagogiques et des partenaires académiques. Il/elle pourra être amené(e) à organiser et animer des sessions de formation (CM, TD, TP, webinaire, …) en soutien au déploiement de nouveaux contenus. Enfin, il/elle pourra contribuer aux comptes rendus, rapports d’activité et constitution de pièces justificatives éventuellement demandées par le financeur. Sujet : Missions de l’agent : Rattaché à la Direction de la formation et de la pédagogie, l’ingénieur de formation orienté IA fera partie d’une équipe projet impliquant la formation initiale, la formation continue, la coopérative pédagogique (le centre d’innovation pédagogique de l’UTT). Il/elle jouera un rôle clé dans la conception, la structuration et la mise en œuvre de ce nouveau programme de formation, en collaboration avec des experts du domaine, des enseignants, des ingénieurs pédagogiques et des partenaires académiques. Il/elle pourra être amené(e) à organiser et animer des sessions de formation (CM, TD, TP, webinaire, …) en soutien au déploiement de nouveaux contenus. Enfin, il/elle pourra contribuer aux comptes rendus, rapports d’activité et constitution de pièces justificatives éventuellement demandées par le financeur. Activités principales : • Participer à la conception, au développement et au déploiement de la formation Bachelor IA, en collaboration avec des experts du domaine, des enseignants, des ingénieurs pédagogiques, des partenaires académiques, … • Elaborer des programmes de formation, des supports pédagogiques et des évaluations innovants en adoptant une approche par compétences • Proposer et expérimenter des formats pédagogiques innovants (blended learning, classes inversées, projets tutorés, etc.) • Collaborer avec des experts métiers, enseignants et ingénieurs pédagogiques pour coconstruire des contenus pédagogiques innovants et de qualité • Organiser et animer des sessions de formation (CM, TD, TP), des ateliers, des séminaires ou des webinaires • Participer à l’évaluation des besoins en formation des apprenants et adapter les contenus en conséquence • Contribuer à la mise en place et à l’animation des outils de suivi qualité de la formation et de dispositifs d’amélioration continue • Proposer des ajustements pédagogiques fondés sur les retours d’expérience, les évaluations… • Valoriser les ressources pédagogiques produites (articles, webinaires, présentations) • Participer à des événements académiques ou professionnels pour partager des retours d’expérience • Contribuer à la diffusion et/ou la communication via des plateformes ouvertes ou des publications internes • Contribuer aux comptes rendus, rapports d’activité et constitution de pièces justificatives éventuellement demandées par le financeur • Réaliser une veille pédagogique et technologique continue sur les sujets liés à l’intelligence artificielle, à l’enseignement supérieur et aux méthodes d’apprentissage innovantes • Garantir la pertinence et l’actualité des contenus de formation en tenant compte des évolutions du domaine • Participer à des salons, forums ou événements autour de l’intelligence artificielle ou de l’orientation scolaire • Soutenir, ponctuellement, les activités de la DFP Profil du candidat : Compétences essentielles du poste : Savoirs généraux, théoriques ou disciplinaires • Connaissances solides des concepts fondamentaux et avancés en intelligence artificielle • Maîtrise des sciences de l’éducation, de la pédagogie et/ou de l’ingénierie de formation • Maîtrise des approches pédagogiques innovantes • Connaissances solides de l’approche par compétences • Bonne connaissance du fonctionnement de l’enseignement supérieur (formation initiale / continue) • Capacité à traduire des connaissances techniques complexes en contenus pédagogiques accessibles clairs, engageants et accessibles Savoir-faire opérationnels • Concevoir et structurer une offre de formation en lien avec les besoins d’un secteur spécifique (IA) • Élaborer des contenus pédagogiques adaptés à différents formats (présentiel, distanciel, hybride) • Concevoir et animer des sessions de formation (CM, TD, TP, ateliers, séminaires, webinaires) • Utiliser les outils numériques et technologiques pour la formation (LMS, outils auteur, outils collaboratifs, plateformes d’apprentissage) • Piloter des projets pédagogiques en mode collaboratif avec divers acteurs (enseignants, experts, partenaires) • Réaliser une veille technologique et pédagogique et intégrer les innovations pertinentes • Définir et mettre en œuvre des outils d’évaluation et de suivi qualité des dispositifs de formation • Rédiger des comptes rendus, rapports d’activité et documents administratifs liés aux formations Savoir-être • Capacité à travailler en équipe et en mode projet avec des interlocuteurs variés • Sens de l’organisation, réactivité, et rigueur dans le suivi des projets, la gestion des priorités • Autonomie, esprit d’initiative et capacité à proposer des solutions innovantes • Aisance à l’oral comme à l’écrit dans un contexte professionnel • Esprit d’analyse et capacité à prendre du recul pour ajuster les pratiques pédagogiques • Curiosité intellectuelle et goût pour l’apprentissage continu Formation et compétences requises : Adresse d’emploi : Université de technologie de Troyes 12 rue Marie Curie, 10300 Troyes Document attaché : 202509220941_F_H Ingénieur_Formation_IA-2.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LISIC – Université du Littoral Durée : 1 year Contact : esteban.bautista@univ-littoral.fr Date limite de publication : 2025-12-31 Contexte : The Industrial Internet of Things (IIoT) is a rapidly evolving paradigm in which industrial sensors, machines, and other instruments are connected to the internet. The data provided by these systems are of great value for automated surveillance and detecting anomalies in them is a task of utmost importance. Temporal graphs are a very effective model for IIoT data, where nodes represent devices; node features represent their measurements; and time-varying weighted edges capture various types of information. In the initial phase of this project, we have already developed powerful auto-encoder models capable of detecting both temporal and structural anomalies in temporal graphs. Yet, while our models allow us to detect the presence of an anomaly, they are still unable to localise it. The main goal of this postdoctoral project is therefore to fundamentally extend our temporal graph auto-encoder models beyond anomaly detection to also perform anomaly localization. Sujet : The recruited postdoc will have two main goals: Extension of Auto-Encoders for Anomaly Localization. Our models currently receive a temporal graph as input and produce an anomaly score that is proportional to the severity of its abnormal events. Even though they can be used to localize anomalies by searching for the subset of maximal anomaly score, such an approach is impractical due to the exponential number of subsets to test. We aim to prune-down the search space by properly structuring the auto-encoder’s latent representation. This will require substantial architectural innovation to disentangle the auto-encoder’s structured representation and achieve fine-grained anomaly localization. Application to IIoT logs and measurements. We aim to evaluate the methodological developments above in real-world IIoT dataset that contain various types of attacks (structural anomalies) and measurement faults (feature anomalies). We aim to explore the advantages of our approach in real-world, potentially on-line, scenarios, such as machine health monitoring, transportation network monitoring, or other use cases that may arise from collaborations with local companies. Profil du candidat : We look for highly motivated candidates with relevant experience in anomaly detection, signal processing, graph machine learning, and/or deep learning. Experience in Python programming, cybersecurity and/or streaming algorithms is a plus. Ideal candidates will have a publication record in selective AI conferences. Interested candidates are invited to send a cover letter, a detailed CV (with a publication list and the contact details of two references), and their PhD manuscript or a recent paper to: esteban.bautista@univ-littoral.fr claire.guilloteau@univ-littoral.fr Applications will be reviewed on a rolling basis until the position is filled. Formation et compétences requises : PhD in Computer Science or related areas Adresse d’emploi : LISIC Laboratory, Saint-Omer, France Document attaché : 202511041003_Postdoc___Temporal_Graph_Auto_Encoders____Job_Offer.pdf Jan 1 Thu 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : DIG team, Télécom Paris Durée : 12 months Contact : nils.holzenberger@telecom-paris.fr Date limite de publication : 2026-01-01 Contexte : Sujet : Hello, We are hiring 2 PhD students and 1 postdoc to work on combining language models with structured data, at Telecom Paris, Institut Polytechnique de Paris. Start date can be between January and March 2026. Large Language Models are amazing, and with our research project, we aim to make them even more amazing! Our project will connect large language models to structured knowledge such as knowledge bases or databases. With this, 1. language models will stop hallucinating 2. language models’ knowledge can be audited and updated reliably, to spot biases and make them more interpretable 3. language models will become smaller and thus more eco-friendly and deployable We work in the DIG team at Telecom Paris, one of the finest engineering schools in France, and part of Institut Polytechnique de Paris — ranked 38th in the world by the QS ranking. The institute is 45 min away from Paris by public transport, and located in the green of the Plateau de Saclay. Check out our Web site to apply: https://suchanek.name/work/research/kb-lm/index.html Fabian Suchanek & Nils Holzenberger Profil du candidat : Formation et compétences requises : Adresse d’emploi : 19 place Marguerite Perey 91120 Palaiseau FRANCE Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Institut d’Astrophysique de Paris (IAP), Paris, F Durée : 2+1 years Contact : guilhem.lavaux@iap.fr Date limite de publication : 2026-01-01 Contexte : Sujet : You will work within the research group led by G. Lavaux and F. Leclercq, funded by the Simons Foundation’s “Learning the Universe” collaboration. As a researcher, you will actively contribute to projects focused on the large-scale structure of the Universe—including galaxy clustering, the cosmic microwave background (CMB), and gravitational shear—by integrating artificial intelligence, Bayesian inference, physical modeling, cosmological simulations, the construction of synthetic galaxy catalogs, and the analysis of observational data from the Euclid mission. You will also contribute to producing independent and original research within the team, exploring innovative approaches and publishing your findings in peer-reviewed scientific journals. For full details and to submit an application, see https://shlink.aquila-consortium.org/postdoc-iap-apply Profil du candidat : Formation et compétences requises : Knowledge / Expertise: Physics, cosmology, digital techniques, Bayesian formalism Practical abilities: Scientific communication (writing papers, presenting at conferences or seminars), High-Performance computing and Machine Learning experience is welcome, Languages: Professional written and spoken English required; French not mandatory. Soft skills: Teamwork, respect, scientific integrity, openness to new scientific and technical developments References: Submit a CV, cover letter, list of publications, and a research proposal of approximately 3 pages. Up to three letter of recommendations may be sent using the link https://shlink.aquila-consortium.org/postdoc-iap-1 Adresse d’emploi : Institut d’Astrophysique de Paris, 98 bis boulevard Arago, 75014 Paris, France Jan 15 Thu 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Institut d’Astrophysique de Paris (IAP), Paris, F Durée : 2 years Contact : florent.leclercq@iap.fr Date limite de publication : 2026-01-15 Contexte : Sujet : The Institut d’Astrophysique de Paris (IAP) invites applications for a two‑year postdoctoral position in cosmological modelling and inference. See the full position description and application instructions here: https://cloud.aquila-consortium.org/s/Postdoc_ad_INFOCW Profil du candidat : Formation et compétences requises : Adresse d’emploi : Institut d’Astrophysique de Paris (IAP), 98bis boulevard Arago, F-75014 Paris, France Jan 16 Fri 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIFAT, Université de Tours Durée : 6 months (end in Jun Contact : nicolas.ragot@univ-tours.fr Date limite de publication : 2026-01-16 Contexte : The JUNON project, driven by the BRGM, is granted from the Centre-Val de Loire region through ARD program (« Ambition Recherche Développement ») which goal is to develop a research & innovation pole around environmental resources (agriculture, forest, waters…). The main goal of JUNON is to elaborate digital services through large scale digital twins in order to improve the monitoring, understanding and prediction of environmental resources evolution and phenomena, for a better management of natural resources. Digital twins will allow to virtually reproduce natural processes and phenomena using combination of AI and environmental tools. JUNON will focus on the elaboration of digital twins concerning quality and quantity of ground waters, as well as emissions of greenhouse gases and pollutants with health effects, at the scale of geographical area corresponding to the North part of the Centre-Val-de-Loire region. These digital twins will rely on geological and meteorological knowledge and data (time series), as well as physic-based models. The project actors are: BRGM, Université d’Orléans, Université de Tours, CNRS, INRAE, and ATOS and ANTEA companies. There are 5 work packages (WP): 1. User’s needs and geological knowledge for ground water 2. User’s needs and biological/chemical knowledge about pollutants and greenhouse gases 3. Data management and data mining 4. Time series prediction 5. Aggregation and realization of digital twins themselves The postdoctoral position will be in the WP 4, focused on the prediction of quantity of ground waters. There will be strong interactions with WP 1 and 3 (BRGM) through postdocs and engineers. The work will be supervised by the LIFAT – RFAI and you will have to interact with one PhD student in JUNON as well. Interaction with the RFAI group and other PhDs working on similar subjects will also be done. Sujet : While the BRGM (a postdoc to be recruited) will have in charge to collect and arrange data (ground waters levels at different locations) and to benchmark predictions with mechanistic models as well as with classical prediction AI tools, the goal of the postdoc will be – To set up an evaluation protocol and SOTA approaches to design a specific competition for an upcoming conference. The protocol will relies on previous analysis and data and will focus on infrastructure and meachnisms to deliver data to participants according to different scenarii including continual learning ones – to build new prediction models (able to integrate several sources of information ; using correlation between mulitple sensors ; using knowledge transfer or domain adaptation, etc.) Profil du candidat : The position is initially for a postdoc position but candidates with a Master of Science degree and strong skills and experience in Machine Learning for Time Series could also apply. Formation et compétences requises : – required: – strong experience in data analysis and machine learning (theory and practice of deep learning in python) – experiences/knowledge in time series prediction with SOTA deep learning approaches – interest or experiences with environmental science (hydrogeology, air pollution…) – curiosity and ability to communicate (in English at least) and work in collaboration with scientists from other fields – ability to propose and validate new solutions and to publish the results – autonomy and good organization skills Adresse d’emploi : Computer Science Lab of Université de Tours (LIFAT), Pattern Recognition and Image Analysis Group (RFAI) https://www.rfai.lifat.univ-tours.fr 64 av. Jean Portalis, 37200 TOURS FRANCE Document attaché : 202510311520_Fiche de poste Pdoc 2 Junon.pdf Apr 29 Wed 2026 Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : Université de Technologie de Troyes Durée : 4 ans (2+2) Contact : malika.kharouf@utt.fr Date limite de publication : 2026-04-29 Contexte : L’expert (F/H) en Intelligence Artificielle sera intégrée à la Direction de la Formation et de la Pédagogie (DFP) de l’Université de Technologie de Troyes (UTT). Dans le cadre du Cluster IA Hi!Paris, financé par France 2030, elle fera partie d’une équipe projet impliquant la formation initiale, la formation continue, la coopérative pédagogique (le centre d’innovation pédagogique de l’UTT) et aura pour missions principales : 1. Le soutien actif à la création et la mise à jour des contenus pédagogiques dédiés au Bachelor en Intelligence Artificielle. 2. L’apport de son expertise technique et scientifique aux équipes enseignantes, de la DFP et de la Coop afin d’assurer la qualité, la pertinence et l’innovation des contenus proposés. 3. Assurer un volume annuel de 100 heures équivalent Travaux Dirigés (TD) 4. Contribuer aux comptes rendus, rapports d’activité et constitution de pièces justificatives demandées par le financeur. Sujet : Activités principales : • Identifier les besoins spécifiques en formation IA. • Adapter les contenus pédagogiques à différents publics (débutants, confirmés, professionnels). • Assister les équipes pédagogiques dans l’intégration des dernières avancées technologiques et scientifiques en IA. • Organiser des sessions de formation interne et/ou d’accompagnement pédagogique. • Dispenser des enseignements de l’IA comprenant cours magistraux, travaux dirigés, travaux pratiques et projets. • Évaluer les compétences acquises par les étudiants. • Participer aux jurys d’examen et à la coordination pédagogique du Bachelor.• Garantir la pertinence, l’actualité et l’évolutivité des ressources pédagogiques en fonction des avancées du domaine • Contribuer à la démarche qualité des formations : recueil des retours d’expérience, évaluation des apprentissages, ajustements continus • Soutenir, ponctuellement, les activités de la DFP Profil du candidat : • Connaissances approfondies des fondements théoriques et techniques de l’Intelligence Artificielle (machine learning, deep learning, NLP, vision artificielle, systèmes experts, apprentissage par renforcement, éthique de l’IA, optimisation algorithmique, statistiques avancées). • Connaissances générales des principaux outils et plateformes utilisés en IA (TensorFlow, PyTorch, scikit-learn, Keras, etc.). • Capacité à créer, adapter et mettre à jour des contenus pédagogiques innovants adaptés à différents formats (présentiel, distanciel, hybride). • Mise en œuvre de cas réels ou simulés d’utilisation de l’IA lors de projets ou de TP. • Maîtrise des outils technologiques et pédagogiques liés à l’IA. • Aptitude à évaluer efficacement les compétences des étudiants. • Rédiger des documents pédagogiques, rapports d’activités, bilans et supports de communication Formation et compétences requises : Adresse d’emploi : 12 rue Marie Curie, 10300 Troyes Document attaché : 202509111211_F_H Ingénieur_Expert_IA.pdf
|
Offres de thèses
Nov 30 Sun 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : UMR AGAP Institut, CIRAD, Montpellier Durée : 3 ans Contact : frederic.boudon@cirad.fr Date limite de publication : 2025-11-30 Contexte : Les modèles structure-fonction (FSPM) permettent d’analyser finement le fonctionnement et la croissance des plantes dans des environnements fluctuants. Ils simulent l’interaction entre la structure modulaire de la plante, sa géométrie (distribution spatiale 3D) et les processus physiologiques en interaction avec l’environnement (Prusinkiewicz, 2004 ; Fourcaud et al., 2008 ; Louarn et Song, 2020). Ses modèles considèrent que la structure tridimensionnelle des plantes constitue à la fois son interface avec l’environnement et un déterminant majeur de leur croissance et leur productivité (Costes et al., 2006). Ils sont particulièrement mobilisés pour l’étude et la modélisation d’arbres fruitiers (Costes et al., 2008 ; Allen et al., 2005 ; Lescourret et al., 2011 ; Boudon et al., 2020) où la compétition interne pour les ressources entre organes exige des représentations dynamiques et spatialisées. Toutefois, un obstacle majeur réside dans la paramétrisation de ces modèles, qui limite leur adoption pour le développement d’outils d’aide à la décision en gestion de vergers (DeJong, 2019) et, plus largement, freine leur diffusion au sein de la communauté scientifique. La télédétection, associée aux méthodes d’analyse basées sur le deep learning, offre un fort potentiel pour caractériser le fonctionnement et la croissance des plantes, et ainsi contribuer à la paramétrisation des modèles structure-fonction. L’émergence récente de capteurs variés (caméras RGB, LiDAR, thermiques, etc.) et de plateformes d’acquisition (drones, phénomobiles, etc.) ouvre de nouvelles perspectives pour le phénotypage haut débit et le suivi des vergers. Plusieurs initiatives récentes visent à automatiser le phénotypage des arbres, mais elles se focalisent généralement sur un nombre restreint de traits, souvent insuffisant pour alimenter un FSPM de manière complète (Streit et al., 2023). Dans ce contexte, l’objectif de cette thèse est de développer une nouvelle génération de modèles FSPM d’arbres fruitiers, hybridant les approches classiques de modélisation avec des données haut débit issues du phénotypage en verger. En s’appuyant notamment sur les projets Gardens et PHENET, l’utilisation de FSPM paramétrés par des données de phénotypage haut débit permettra de produire des jumeaux numériques et de caractériser et explorer “in silico” la résilience de systèmes agricoles. Un enjeu majeur des approches FSPM est de pouvoir reproduire et simuler des structures topologiques décrivant l’architecture de la plante et leurs informations géométriques ou physiologiques associées, notamment issues de la télédétection. Ces structures peuvent être décomposées en séquences qui représentent par exemple la ramification le long des axes de la plante. Des méthodes statistiques dédiées (Guédon et al., 2001) ont été développées par la communauté scientifique pour pouvoir analyser et simuler ces séquences. Récemment, les grands modèles de langage (LLM) ont connu une évolution remarquable, révolutionnant le traitement du langage naturel et trouvant des applications dans divers domaines scientifiques. Ils reposent principalement sur des architectures de réseaux de neurones avancées, parmi lesquelles les Transformers (Vaswani et al., 2017) jouent un rôle central. Contrairement aux modèles séquentiels classiques comme les RNN (Recurrent Neural Networks) ou les LSTM (Long Short-Term Memory), les Transformers exploitent un mécanisme d’attention permettant de traiter les données en parallèle plutôt que de manière séquentielle. Ce mécanisme, dit Self-Attention, pondère l’importance de chaque élément dans une séquence par rapport aux autres, améliorant ainsi la capture des dépendances à longue portée dans une séquence. Par ailleurs, d’autres approches comme les Autoencodeurs Variationnels (VAE) (Kingma & Welling, 2013) sont également utilisées dans certains modèles de génération, notamment pour apprendre des représentations latentes structurées du langage. Ces approches ouvrent des perspectives prometteuses pour leur application en modélisation FSPM, notamment en facilitant l’apprentissage et la génération automatique de structures arborescentes représentant l’architecture des plantes. Sujet : Lors de la première étape, ce projet s’appuiera sur des modèles FSPM existants dans la plateforme libre OpenAlea, tels que MappleT (pommier), dans lesquels la structure des arbres est modélisée par des processus stochastiques (p. ex. semi-chaînes de Markov cachées) calibrés à partir de relevés de croissance dont l’acquisition et l’analyse sont coûteuses en temps et en expertise. Une première étape de la thèse consistera à étendre un modèle d’arbre FSPM en générant la structure arborescente à l’aide de “Large Language Models” (LLM), notamment des réseaux Transformers ou des Variational Autoencoders (VAE), afin de générer la succession des organes et leurs types associés. Les observations et les sorties des modèles statistiques déjà calibrés serviront à entraîner et à paramétrer ces réseaux. Une deuxième étape sera de simuler un modèle FSPM d’arbre fruitier contraint par des données LIDAR, issues des projets PHENET (pommier) et Gardens (citrus). A partir de ces scans, des structures topologiques augmentées d’information géométriques seront générées. Et les réseaux entraînés précédemment seront étendus pour permettre la génération de ces structures et de leurs informations associées. Un enjeu majeur consistera à développer des codages relatifs (paramétrisation des entités en fonction des paramètres du nœud parent) adaptés à ces informations pour garantir une génération séquentielle cohérente des éléments de l’architecture. Enfin, dans une troisième étape, nous explorerons l’utilisation de descriptions partielles à certaines phases clés de la croissance. Par exemple, des reconstructions LiDAR pourraient être disponibles uniquement au début et à la fin d’un cycle de croissance, tandis que des observations plus approximatives (vols de drone estimant le volume global de la plante, distribution spatiale de la végétation, etc.) pourraient être obtenues à intervalles réguliers. Dans ce contexte, un apprentissage par renforcement sera utilisé pour calibrer les modèles de croissance. Ce cadre permettra d’alterner entre l’exploitation des données existantes pour optimiser la génération de la structure et l’exploration de nouvelles configurations possibles Dans une dernière étapes, ces méthodes seront appliquées pour reconstruire un verger en 3D à partir d’informations de phénotypage (drones, LIDAR) puis de simuler des processus biophysiques difficilement observables comme l’interception de la lumière ou le stress hydrique afin d’estimer la résilience du système, la distribution des ressources dans ces systèmes (lumière, eau) et de proposer de nouveaux traits (dans notre cas représentés comme des paramètres de modèles), de nouvelles variétés, et de nouvelles conduites (densité d’arbres, taille, association d’espèces) permettant d’optimiser ces systèmes. Profil du candidat : Titulaire d’un master en informatique ou d’un diplôme d’ingénieur avec des compétences en deep learning et idéalement en 3D. Programmation en Python et C/C++. Intérêt pour la biologie et l’agronomie. Formation et compétences requises : Adresse d’emploi : CIRAD, Phenomen team, UMR AGAP Avenue Agropolis TA A-108 / 01 34398 Montpellier Cedex 5, France Document attaché : 202510131618_these-assimilation-vf-2025.pdf Dec 15 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : SIEO Lab Romania/LISTIC France Durée : 36 mois Contact : yajing.yan@univ-smb.fr Date limite de publication : 2025-12-15 Contexte : Sujet : Distinct agricultural crops and practices play a central role in shaping the culture and cultural heritage of rural communities in specific regions. The Brașov region in Romania, for instance, is particularly renowned for its potato and sugar beet cultivation, which has earned it the designation ‘Potato Country’. However, these traditional crops are increasingly being replaced by others, such as rapeseed, which are more resilient and better adapted to changing climate conditions. This shift contributes to the loss of cultural heritage. Remote sensing, and in particular Synthetic Aperture Radar (SAR), provides valuable insights into vegetation structure, soil roughness, and soil moisture. The Copernicus program of the European Commission, together with other space agencies, offers free and regularly updated data for the long-term monitoring of agricultural systems. In this project, conducted in close collaboration between French and Romanian research units, we aim at contributing to the preservation of cultural heritage in the selected region of Romania, while the ultimate goal is to take steps towards the development of global strategies to address climate change. In order to reach the aim, we leverage multi-modal, multi-temporal SAR data to (i) quantify the impact of climate change on traditional agricultural crops, (ii) estimate the water demand of these crops, (iii) evaluate nature-based solutions to preserve soil quality, and (iv) predict future dynamics. Research aims: leverage multi-modal (multi-frequency, multi-resolution, multi-polarization, complex signal/amplitude/interferometric coherence/phase), multi-temporal SAR data to monitor the crop growth, crop fields roughness and moisture evolution. Methodology: • Analyze the historical data of agricultural crops on the identified cultural heritage sites in Romania • Multi-modal multi-temporal SAR data collection and pre-processing • Perform SAR data analysis for the assessment of climate change impact – crop structure evolution analysis – soil roughness evolution analysis – soil moisture evolution analysis – correlation analysis with in situ data • Predict the future dynamics with meteorological data • Create open access data sets and tutorials for the community Profil du candidat : We seek for Ph.D candidates with Master degrees on remote sensing, environment and geosciences, information science. Good English skill is necessary for communication. The Ph.D student will spend 24 months in Romania and 12 months in France. Formation et compétences requises : Adresse d’emploi : Space Intelligence and Earth Observation Research Laboratory, Transilvania University of Brasov, Romania, LISTIC, University Savoie Mont Blanc, Annecy, France Document attaché : 202511051450_PhD_subject_crop_monitoring.pdf Dec 22 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : LS2N Durée : 3 year Contact : hala.skaf@univ-nantes.fr Date limite de publication : 2025-12-22 Contexte : I am seeking excellent candidates for a fully funded 3-year Phd position funded by the ANR SaFE-KG project. Goal: Formalise, design, and implement a secure, efficient federation engine enabling LLM-like querying across sensitive biomedical knowledge graphs, with fine-grained access control and provenance. Sujet : In the context of SaFE-KG, the main objectives of the thesis is to design and implement an Efficient and Secure Federation Engine able to: Query decentralized knowledge graphs under fine-grained access control policies. Ensure high performance and scalability in secure federations. Interact with LLM to support query building Return results enriched with provenance and usage control information. Support adaptive query processing techniques, including secure sampling. Profil du candidat : Solid background in Semantic Web, knowledge graphs, SPARQL; familiarity with sampling and/or ML/LLMs is a plus. Formation et compétences requises : Master’s in CS/IS (strong ranking). Adresse d’emploi : LS2N, Nantes Université Document attaché : 202509221432_SujetThèse-Safe-KG-5.pdf Dec 31 Wed 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : ISIR – Institut des Systèmes Intelligents et de Ro Durée : 36 mois Contact : patrick.gallinari@sorbonne-universite.fr Date limite de publication : 2025-12-31 Contexte : AI4Science is an emerging research field that investigates the potential of AI methods to advance scientific discovery, particularly through the modeling of complex natural phenomena. This fast-growing area holds the promise of transforming how research is conducted across a broad range of scientific domains. One especially promising application is in modeling complex dynamical systems that arise in fields such as climate science, earth science, biology, and fluid dynamics. A diversity of approaches is currently being developed, but this remains an emerging field with numerous open research challenges in both machine learning and domain-specific modeling. Generative modeling is transforming machine learning by enabling the synthesis of plausible, high-dimensional data across modalities like text, images, and audio. A similarly profound shift is underway in the sciences, where generative deep learning is being leveraged to model complex physical dynamics governed by partial differential equations (PDEs)—especially in cases where traditional simulations are computationally expensive. The central goal of the PhD project is to investigate whether deep generative architectures—such as diffusion, flow-matching, or autoregressive transformer-based sequence models—can be designed to simulate, generalize, and interpolate physical dynamics across a wide range of parametric and multiphysics regimes. Building on recent advances in neural surrogate modeling, this research will aim to advance generalizable, cross-physics generative modeling. Sujet : RESEARCH OBJECTIVES The overarching research question is: Can we develop generative models that learn structured, physically grounded representations of dynamical systems—enabling synthesis, adaptation, and generalization across physical regimes and multiphysics settings? It unfolds into several complementary directions: LATRENT GENERATIVE MODELS FOR PHYSICAL DYNAMICS The objective is to design generative models—such as diffusion, flow-matching, or autoregressive models—that learn compact and interpretable latent representations of spatiotemporal dynamics governed by PDEs. These models should: • Capture uncertainty and multimodality in solution trajectories. • Generalize across parametric variations. LEARNING ACROSS MULTIPHYSICS SYSTEMS To enable transfer learning across heterogeneous physics, we will explore shared latent representations across families of PDEs: • Using encode–process–decode frameworks. • Applying contrastive or multitask training to uncover reusable physical abstractions. • Designing models invariant to space/time resolution and units. This direction builds toward foundation-like models that capture generalizable physics priors across simulation families. FEW-SHOT and IN-CONTEXT GENERALIZATION TO NEW PHYSICS To support scientific modeling in data-scarce settings, we will develop methods for few-shot generalization such as: • Fine-tuning latent priors to new PDE systems using limited examples. • Exploring meta-learning and prompt-based adaptation techniques (inspired by in-context learning in language models). • Incorporating known physical constraints into the generative process. The goal is to enable rapid and physically consistent adaptation to previously unseen dynamics with minimal data and supervision. Profil du candidat : Computer science or applied mathematics. Master degree in computer science or applied mathematics, Engineering school. Formation et compétences requises : Good programming skills. Background and experience in machine learning. Adresse d’emploi : Sorbonne Université (S.U.), Pierre et Marie Campus in the center of Paris. The candidate will integrate the MLIA team (Machine Learning and Deep Learning for Information Access) at ISIR (Institut des Systèmes Intelligents et de Robotique). Document attaché : 202505191314_2025-05-01-PhD-Description-Generative-models-Physics.pdf Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : Laboratoire Informatique d’Avignon avec codirect Durée : 3 ans Contact : rosa.figueiredo@univ-avignon.fr Date limite de publication : 2025-12-31 Contexte : ANR project EVA – EValuating gender policies in academia through the Analysis of scientific collaboration networks. Sujet : https://eva.univ-avignon.fr/wp-content/uploads/sites/34/2025/04/offre.pdf Profil du candidat : • Master’s degree (or equivalent) in Computer Science, Applied Mathematics, Operations Research, or a related field. • Strong ability to write and present research clearly. • Proficiency in Python, R, Julia or C++, with experience in AI and optimization algorithms. • Good understanding of graph theory, machine learning, and network analysis. • Ability to work well in an interdisciplinary team. • Proficiency in English is required, and knowledge of French is an advantage Formation et compétences requises : Adresse d’emploi : LIA, Avignon Document attaché : 202504251721_offreThesis_EVA.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LISTIC Durée : 36 mois Contact : yajing.yan@univ-smb.fr Date limite de publication : 2025-12-31 Contexte : Sujet : Satellite based remote sensing offers a unique source of information to monitor the environnement, with fine spatial resolution, wide coverage and frequent revisit. This enables addressing the challenge of natural hazard monitoring and forecasting, which has a significant societal impact. The inverse modeling of surface displacement is one of the major techniques of exploring the subsurface feature of volcanoes. The traditional Monte Carlo direct search approaches are computational resources and time consuming, thus cannot respond to operational needs. We will explore the potential of deep learning in volcanic inverse modeling with Interferometry Synthetic Aperture Radar (InSAR) for operational monitoring and forecasting of volcanic hazards. The intrinsic ill-posedness of inversions in volcanology and limited amount of labeled InSAR data make this work challenging. We tackle the problem of volcanic model inversion, i.e. to estimate model parameters from surface displacement estimations issued from InSAR by solving an inverse problem. This Ph.D thesis will elaborate on our previous proof-of-concept work where a frugal ResNet model was deployed for the first time to estimate the volume change and depth of a spherical volcanic source (i.e. Mogi) from synthetic InSAR displacement fields. This ResNet model exhibits distinct advantages of computational efficiency over the state-of-the-art Monte Carlo direct search methods. For this thesis, the Ph.D student will use more sophisticated volcanic models (e.g. fracture, numerical boundary element models, etc.) allowing for simulations of displacement fields caused by more complex volcanic sources to further increase the generality of the previously proposed ResNet model. One main effort will be devoted to the improvement of the ResNet model prediction accuracy by increasing training data diversity (e.g. divers SAR acquisition geometries, near field/far field and multi-resolution measurements) and by elaborating more adapted loss functions corresponding to appropriate model properties to optimize (e.g. combination of a loss function of estimated model parameters and a loss function of the reconstructed displacement field). These two latter actions also help minimize the ill-posedness. Real InSAR displacement measurements related to both intrusion and reservoir type worldwide volcanoes will be used to fine-tune the ResNet model trained by synthetic data for further validation in real applications. Profil du candidat : The Ph.D candidate should have good skills in machine learning. Knowledge in inverse problem or geophysics is appreciated. Formation et compétences requises : Adresse d’emploi : LISTIC, 5 chemin de bellevue, 74944, Annecy-le-Vieux Jan 1 Thu 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : DIG team, Télécom Paris Durée : 39 months Contact : nils.holzenberger@telecom-paris.fr Date limite de publication : 2026-01-01 Contexte : Sujet : Hello, We are hiring 2 PhD students and 1 postdoc to work on combining language models with structured data, at Telecom Paris, Institut Polytechnique de Paris. Start date can be between January and March 2026. Large Language Models are amazing, and with our research project, we aim to make them even more amazing! Our project will connect large language models to structured knowledge such as knowledge bases or databases. With this, 1. language models will stop hallucinating 2. language models’ knowledge can be audited and updated reliably, to spot biases and make them more interpretable 3. language models will become smaller and thus more eco-friendly and deployable We work in the DIG team at Telecom Paris, one of the finest engineering schools in France, and part of Institut Polytechnique de Paris — ranked 38th in the world by the QS ranking. The institute is 45 min away from Paris by public transport, and located in the green of the Plateau de Saclay. Check out our Web site to apply: https://suchanek.name/work/research/kb-lm/index.html Fabian Suchanek & Nils Holzenberger Profil du candidat : Formation et compétences requises : Adresse d’emploi : 19 place Marguerite Perey 91120 Palaiseau FRANCE Jan 16 Fri 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IRT SystemX Durée : 36 mois Contact : faicel.chamroukhi@irt-systemx.fr Date limite de publication : 2026-01-16 Contexte : L’IRT SystemX propose une thèse sur l’apprentissage frugal de modèles génératifs multimodaux en contexte industriel. La thèse s’inscrit dans le cadre d’un projet collaboratif sur l’IA Générative pour l’Industrie, mené en partenariat avec notamment Air Liquide et Michelin, et son volet applicatif vise à adresser des cas d’usage industriels liés à la gestion de connaissances techniques en ingénierie de systèmes complexes. Le poste est basé à Palaiseau et la thèse sera inscrite à l’école doctorale STIC de l’Université Paris-Saclay. La thèse est financée pour une durée de 36 mois, avec une rémunération de 2784 € brut/mois, pour un démarrage souhaité début 2026. Voici pdf ci-joint pour plus de détails sur le contexte. Sujet : Apprentissage frugal de modèles génératifs multimodaux en contexte industriel. Le volet applicatif vise à adresser des cas d’usage industriels liés à la gestion de connaissances techniques en ingénierie de systèmes complexes. Voici pdf ci-joint pour plus de détails sur le sujet. Profil du candidat : Le(la) candidat(te) doit justifier d’un Master Recherche (ou formation équivalente avec un intérêt avéré pour la recherche) dans le domaine des sciences des données et de l’Intelligence Artificielle. Formation et compétences requises : Master Recherche ou équivalent en sciences des données et Intelligence Artificielle. Intérêt marqué pour la recherche et goût pour les applications. Solides compétences en inférence statistique et en optimisation. Maîtrise de l’apprentissage profond. Programmation en Python, avec expérience PyTorch/TensorFlow. Des compétences sur les modèles d’IA générative serait un plus. Pour postuler, merci d’envoyer les éléments suivants au format PDF à : faicel.chamroukhi@irt-systemx.fr CV détaillé Lettre de motivation Relevés de notes des deux dernières années d’étude de Master ou de cycle ingénieur Au moins une lettre de recommandation Adresse d’emploi : IRT SystemX, 2 Boulevard Thomas Gobert 91120, Palaiseau Document attaché : 202510310836_Offre-de-These-IRTSystemX-DIT-2-2026-IAG1.pdf Mar 31 Tue 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Criteo AI Lab Paris Durée : 36 mois Contact : p.gallinari@criteo.com Date limite de publication : 2026-03-31 Contexte : As part of its ongoing transformation into an agentic-ready platform, Criteo is spearheading the integration of agentic AI across its full portfolio. These systems are already being deployed to automate internal operations, assist clients in the management and optimization of advertising campaigns, and to power personal shopping agents—autonomous assistants that act on behalf of end-users. These agents must reason, remember, and act autonomously in environments characterized by uncertainty, variability, and scale. To fulfill this vision, one of the most pressing challenges is adaptability. Our agents must function across an extremely heterogeneous client base — each with unique product catalogs, optimization targets, and interface constraints while interacting with users and inferring their intents. Sujet : The objective of the PhD is to explore adaptation strategies to multiple and heterogeneous environments and user segments for an agentic system. In our setting these environments might correspond to different partners characterized by their own catalog, objective and strategy while user segments refer to user preferences or needs. We will restrict our scope to language-only agents and emphasize practical assistant scenarios. In most scenarios, adaptation to new environments and to user intents shall leverage simple and computationally costless strategies, while being able to adapt for scarce data contexts available for these new settings. Adaptation places a significant demand on the system’s memory, which must be more than a static repository of facts. It must be an adaptive memory system, capable of restructuring and reprioritizing information as the user’s context evolves. Therefore, self-adaptation is intrinsically linked to memory management. The goal is to endow the agent with the ability to learn how to manage its own memory in response to a changing environment and user. The PhD will start to investigate different memory strategies and their potential for handling adaptation to new environments and to user interaction. We will explore mechanisms for the agent to develop learned policies for memory operations. Key research questions include: • Learned Retention and Forgetting: How can an agent learn what information is critical to retain versus what is obsolete and should be forgotten or archived? • Adaptive Retrieval Strategies: Can an agent learn the most effective way to query its memory? We will explore how the system can dynamically choose between different retrieval methods (e.g., vector-based RAG, evolving LLM context), based on the task. • Automated Memory Summarization: How can the system “reflect” on its interaction history to create higher-level insights? We will investigate techniques for the agent to periodically summarize streams of memories into more abstract knowledge (e.g., consolidating multiple shopping interactions into a persistent preference like “user prefers sustainable brands”). Adaptation mechanism shall also be an element contributing to the planning mechanism of the agent: how can an agent make decisions when the goal is weakly defined, the feedback is sparse, and the environment varies by client? This is particularly relevant in domains like travel planning or multi-product recommendations, where a “one-size-fits-all” approach is neither feasible nor desirable. To complement memory-based methods, off-line reinforcement learning strategies could be considered. Profil du candidat : We are looking for a motivated researcher with a strong foundation in machine learning, natural language processing, applied maths. Familiarity with large language models, transformers, reinforcement learning, or continual learning will be considered a strong asset. Above all, we are seeking someone who is excited by the challenge of bringing intelligent agents to life in practical, high-impact applications. Formation et compétences requises : Master degree in computer science or applied mathematics, Engineering school. Background and experience in machine learning. Adresse d’emploi : Criteo AI Lab Paris Document attaché : 202510021236_2025-10-Criteo-PhD proposal-Agents-LLMs.pdf
|
Offres de stages
Nov 16 Sun 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IRIT (Toulouse) Durée : 5 to 6 months Contact : henrique.goulart@irit.fr Date limite de publication : 2025-11-16 Contexte : Sujet : We are seeking candidates for a 5- to 6-month internship on the analysis and improvement of estimators of low-rank tensor models, with the possibility of a PhD thesis afterwards (a PhD funding is secured). This subject is situated at the interface between mathematics and computer science, having applications in several domains, notably in data science and machine learning. A detailed description can be found at: https://cloud.irit.fr/s/hZnoJgiopaqMkdV Profil du candidat : M2 student strongly motivated by mathematics and its application to statistical inference and machine learning. Prior knowledge on tensor algebra and on random matrix theory are a strong plus. Good communication skills (both oral and written) in English are required, notably for reading, writing and presenting scientific papers. Formation et compétences requises : Adresse d’emploi : IRIT (Institut de Recherche en Informatique de Toulouse), site ENSEEIHT (2 rue Charles Camichel, Toulouse). Nov 21 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Institut d’Astrophysique de Paris Durée : 4 à 6 mois Contact : tchernia@iap.fr Date limite de publication : 2025-11-21 Contexte : La modélisation et la compréhension de l’histoire de l’Univers, depuis le Big Bang jusqu’à aujourd’hui, reposent sur l’évaluation de nos modèles cosmologiques à partir des grands relevés astronomiques (Euclid, DESI…). L’un des objectifs est de simuler la formation des grandes structures afin d’évaluer la robustesse des modèles cosmologiques vis-à-vis des observations. L’Institut d’Astrophysique de Paris (IAP), une Unité Mixte de Recherche (UMR) de Sorbonne Université et du Centre National de la Recherche Scientifique (CNRS), est impliqué dans cette activité. En son sein, l’équipe « Grandes structures et Univers profond » à laquelle le.la stagiaire sera affecté.e a développé le code Simbelmynë, qui permet de : 1. Calculer l’évolution de la répartition de matière noire en résolvant les équations du mouvement de la gravité à l’échelle de l’univers observable (problème à N corps), 2. En déduire une répartition des galaxies dans le ciel, 3. Produire des relevés cosmologiques simulés. Cette chaîne de simulation est appelée à être lancée un très grand nombre de fois pour des paramètres d’entrée variés. C’est pourquoi le respect des contraintes du calcul haute performance (HPC) et la parallélisation des tâches sont des enjeux clés de ce code. Grâce à l’approche sCOLA qui divise la portion d’univers à simuler en morceaux indépendants, il est possible d’adopter une approche hybride entre calculs à mémoire distribuée et à mémoire partagée. Nous souhaitons aujourd’hui le rendre portable sur plusieurs architectures cibles (CPU et GPU). Pour plus de détails sur le contexte scientifique, voici un article de vulgarisation traitant de ce sujet : https://theconversation.com/vers-une-simulation-de-lunivers-sur-un-telephone-portable-137421 Sujet : La.le stagiaire participera au portage de C vers C++ du code Simbelmÿne ainsi qu’au développement de codes de calcul parallèle utilisant des CPU et GPUs. Il/elle se formera au framework Kokkos et l’utilisera afin de produire un code générique compatible avec toutes les architectures cibles. Il/elle mettra ces codes en œuvre à l’aide du cluster de calcul du laboratoire, mettant à disposition CPUs et GPUs. Il/elle travaillera en équipe et versionnera son code à l’aide de Git et produira les tests unitaires et benchmarks garantissant la qualité, la performance et la robustesse de son code. Profil du candidat : Nous recherchons un.e stagiaire de six mois en fin d’études ou césure, en école d’ingénieurs ou master, avec une spécialisation en informatique et si possible en calcul scientifique/HPC. Formation et compétences requises : – Maîtrise du langage de programmation C++, connaissance de python – Savoir adopter une méthodologie de développement collaboratif (Git, tests unitaires…) – Connaître les enjeux de la programmation HPC, notamment la parallélisation des tâches (multithreading, multiprocessing). – Notions de mathématiques appliquées (Transformées de Fourier, Équations aux dérivées partielles…) – Anglais courant (réunions en anglais) – Une formation en physique serait un plus. Adresse d’emploi : 98 bis boulevard Arago, 75014 Paris Document attaché : 202510231604_Fiche de stage HPC Cosmologie.pdf Nov 26 Wed 2025 Offre en lien avec l’Action/le Réseau : SaD-2HN/– — – Laboratoire/Entreprise : Centre de Recherches Historiques (UMR 8558 : EHESS Durée : 6 mois Contact : bertrand.dumenieu@ehess.fr Date limite de publication : 2025-11-26 Contexte : Le musée Carnavalet – Histoire de Paris et les bibliothèques spécialisées de la ville de Paris conservent d’importantes collections d’éphémères. Il s’agit de documents de la vie quotidienne produits par des commerces, des associations ou des particuliers, qui deviennent très rapidement obsolètes : faire-parts, menus, cartes postales, affiches, prospectus, buvards publicitaires, dépliants touristiques, catalogues de vente, programmes de théâtre, images pieuses, sous-bocks, papiers de fruits, etc. La figure 1 présente un exemple d’affiches et de prospectus créés entre 1873 et 1888 et conservés au musée Carnavalet – Histoire de Paris. Chaque éphémère est indexé par des métadonnées récoltées par le musée, décrivant les acteurs de sa production (artiste dessinateur, imprimeur) et les techniques et matériaux mobilisés. Ces informations permettent quelques analyses explicatives sur la chaîne de création, d’impression et de diffusion de ces éphémères, mais qui restent limitées faute de connaissances suffisantes sur les réseaux professionnels des commerçants, artistes et artisans qui y contribuent. Pour peu qu’ils exercent à Paris, ces professionnels ont de bonnes chances d’être recensés dans les annuaires commerciaux de la ville (voir figure 2). Ancêtres des « Pages Jaunes », ces ouvrages compilent, classent, datent et localisent les commerçants, artisans et notables parisiens au sein de longues listes nominatives. Celles de la majorité des annuaires édités entre 1797 et 1914 ont été extraites et transformées en une base de données géographique sérielle durant un précédent projet de recherche. Il est désormais possible d’exploiter les 22 millions d’entrées contenues de cette base pour tenter d’identifier les acteurs de la production d’éphémères et les lier aux collections du musée Carnavalet. Sujet : Le premier objectif de ce stage est donc de croiser les métadonnées des éphémères avec la base des annuaires du commerce parisien au XIXe siècle pour y retrouver les commerçants et artisans ayant concouru à la production des éphémères du musée. Le second objectif consistera à proposer une méthodologie d’analyse de ces métadonnées enrichies pour comprendre comment la création, l’impression et la diffusion des éphémères s’organisait, selon les commanditaires, les imprimeurs ou les types de supports. On pourra, par exemple, étudier l’éventuelle spécialisation des artistes, des imprimeurs, des rues ou des quartiers dans certains types de production ou bien les critères de choix des artistes ou des imprimeurs par les commanditaires : proximité spatiale, recommandation professionnelle, renommée, etc. La première difficulté de ce travail réside dans la création et le peuplement du graphe de connaissances initial à partir des deux sources de données hétérogènes, incomplètes, bruitées, spatiales et temporelles que sont la base des annuaires et les métadonnées des éphémères. Il s’agira donc de proposer une ontologie, guidée par les hypothèses d’analyse des historiens de l’art concernant les réseaux professionnels potentiels des commerçants, artistes et imprimeurs impliqués dans la création des éphémères. Celle-ci devra ensuite être peuplée à partir des données disponibles, ce qui nécessitera un travail de désambiguïsation des commerçants, artistes et imprimeurs. La seconde difficulté sera de proposer une méthodologie d’analyse spatio-temporelle permettant de comprendre le mode de constitution des réseaux professionnels à l’œuvre et leurs dynamiques au cours de la période étudiée. Profil du candidat : Master 2 ou équivalent en humanités numériques, sciences de l’information géographique ou informatique. Le ou la candidat.e doit être un.e étudiant.e inscrit.e dans une université francilienne. Formation et compétences requises : – Analyse de données : connaissances pratiques et théoriques en analyse spatiale. – Web de données : expérience en manipulation de graphes de connaissances, connaissance du liage de données, notions de conception d’ontologies. – Sciences de l’information géographique : maîtrise opérationnelle de QGIS, connaissance de PostGIS, notions en scripting Python pour les SIG. – Un goût pour l’histoire urbaine ou l’histoire de l’art est un atout. Adresse d’emploi : Centre de recherches historiques (UMR 8558 EHESS – CNRS), 54 boulevard Raspail, 75006 Paris Document attaché : 202510211306_StageEphemeres&Annuaires.pdf Dec 2 Tue 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire des 2 Infinis – Toulouse Durée : Flexible Contact : catherine.biscarat@l2it.in2p3.fr Date limite de publication : 2025-12-02 Contexte : Le Laboratoire des 2 Infinis – Toulouse (L2IT) est une unité mixte de recherche (UMR) du CNRS et de l’Université de Toulouse, jeune et dynamique, née en janvier 2020. Les objets d’étude des chercheurs et des ingénieurs du L2IT sont les deux infinis – l’infiniment petit et l’infiniment grand – et les relations entre les phénomènes qui régissent chacun d’entre eux. Le laboratoire est organisé en quatre équipes “Calcul, Analyse et Données”, “Physique Nucléaire”, “Physique des particules” et “Ondes Gravitationnelles”. Nous poursuivons nos recherches au sein de collaborations internationales. Nous sommes actuellement 32 membres, dont 15 permanents qui mettent en place les équipes de recherche. La spécificité du L2IT est son accent sur les méthodes numériques de pointe (IA, calcul HPC, ingénierie logicielle, expertise CUDA) qui accompagnent les travaux d’analyse de données, de modélisation, simulation, et de développements théoriques. Le L2IT est implanté sur un campus dynamique qui regroupe facultés, écoles et laboratoires. Sujet : Trois sujets de stage sont actuellement proposés. Ils sont à l’intersection entre l’IA et nos domaines de recherche en physique fondamentale (physique des particules, cosmologie, ondes gravitationnelles). Pour les détails des sujets, veuillez vous référer à notre site internet : https://www.l2it.in2p3.fr/en/emplois-et-stages/internships-2026/ Profil du candidat : Formation et compétences requises : Adresse d’emploi : Laboratoire des 2 Infinis – Toulouse, Maison de la Recherche et de la Valorisation, 75 cours des Sciences, 31400 Toulouse, France Dec 10 Wed 2025 Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : Institut de Science des Données de Montpellier / C Durée : 5-6 mois Contact : gino.frazzoli@umontpellier.fr Date limite de publication : 2025-12-10 Contexte : Le sommeil, bien que d’apparence triviale, constitue un état biologique complexe, difficile à quantifier sans recourir à une approche multimodale intégrant notamment l’enregistrement de l’activité cérébrale (EEG). Cette contrainte technologique rend l’étude du sommeil exigeante en conditions naturelles. Comprendre comment les animaux dorment dans leur environnement, en particulier dans un cadre social, représente ainsi un défi majeur. Chez les espèces grégaires comme le babouin, le sommeil ne se résume pas à un phénomène individuel : il s’organise dans un contexte collectif, influencé par les interactions sociales, la hiérarchie et la vigilance partagée. Le projet ERC COSLEEP (dirigé par Meg Crofoot, Max Planck Institute of Animal Behavior) s’attache à explorer cette dimension sociale du sommeil en conditions écologiques réelles, grâce à des suivis simultanés du comportement, de la position et de l’activité physiologique d’individus vivant à l’état sauvage. Le stage proposé s’inscrit dans cette collaboration entre le Centre d’Écologie Fonctionnelle et Évolutive (CEFE), l’Institut de Science des Données et le Max Planck Institute, et portera sur l’analyse de données de sommeil (activité cérébrale, musculaire, oculaire, accéléromètre et vidéo) afin de caractériser la structure et la qualité du sommeil dans un contexte social et écologique réel, et de développer un modèle prédictif fiable basé sur les signaux accélérométriques. Sujet : Le stage aura pour objectif de contribuer à la mise au point d’outils d’analyse automatisée du sommeil chez le babouin à partir de séries temporelles multimodales. Dans un premier temps, le ou la stagiaire évaluera la cohérence du scorage manuel du sommeil réalisé par plusieurs spécialistes à partir d’enregistrements physiologiques (EEG, EMG, EOG, accéléromètre, vidéo), afin de quantifier le niveau d’accord inter-experts et d’établir une base de données de référence. Dans un second temps, il s’agira de tester et d’adapter des modèles d’apprentissage automatique existants (tels que Somnotate ou USleep) pour obtenir un algorithme de scorage automatique capable de s’ajuster aux caractéristiques propres aux signaux enregistrés chez le babouin. Enfin, le stage visera à développer un modèle prédictif du sommeil à partir des signaux d’accéléromètre seuls, en s’appuyant sur les labels dérivés de l’activité cérébrale. Ce modèle permettra à terme d’estimer les phases et sous-états du sommeil à partir de capteurs portés sur collier, ouvrant la voie à une analyse non invasive du sommeil en milieu naturel. Profil du candidat : Le ou la candidat(e) devra posséder une formation en analyse de données expérimentales, data science, ou domaine connexe avec une appétence pour les neurosciences, sciences cognitives, bio-informatique, ou l’écophysiologie. Une bonne familiarité avec le traitement de signaux temporels, des compétences en programmation (Python, Matlab ou R) et des compétences en méthodes d’apprentissage automatique (réseaux de neurones, classification supervisée et modèles de deep learning) seraient un atout majeur. Le ou la stagiaire devra faire preuve de rigueur, d’autonomie et de curiosité scientifique, ainsi que d’un goût marqué pour l’analyse de données et le travail interdisciplinaire, à l’interface entre neurosciences, écologie comportementale et science des données. Une aisance en anglais scientifique (lecture et échanges techniques) sera également souhaitée. Formation et compétences requises : • Maîtrise de Python (NumPy, Pandas, Scikit-learn, PyTorch). Des notions en Matlab sont appréciées. • Connaissances en statistiques, apprentissage automatique et deep learning. • Intérêt pour les méthodes utilisées dans les modèles de scorage automatique du sommeil : o USleep : réseau profond combinant CNN inspiré de U-net pour la classification EEG/EMG. https://www.nature.com/articles/s41746-021-00440-5 o Somnotate : approche probabiliste (HMM + LDA) intégrant la dynamique temporelle du sommeil. https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1011793 • Intérêt à développer des compétences en analyse de signaux physiologiques (EEG, EMG, EOG, accélérométrie). • Notions en validation de modèles et évaluation inter-experts (Kappa, ICC, …). • Rigueur, autonomie, et intérêt pour les approches interdisciplinaires (neurosciences, écologie, data science). • Bon niveau d’anglais scientifique (lecture et communication). Adresse d’emploi : Case courrier, 13004 Pl. Eugène Bataillon Bât. 4, 34095 Montpellier Cedex 5 Document attaché : 202511030916_Analyse_donnees_physiologiques_babouins_CEFE_ISDM_Montpellier.pdf Dec 15 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : BRGM Durée : 6 mois Contact : c.gracianne@brgm.fr Date limite de publication : 2025-12-15 Contexte : Rejoindre le Bureau de Recherches Géologiques et Minières (BRGM), c’est intégrer l’établissement public français de référence dans les sciences de la Terre, qui rassemble 1000 experts passionnés dans 29 implantations en France métropolitaine et en Outre-mer. Le BRGM œuvre à la connaissance du sous-sol pour répondre aux grands défis environnementaux, à travers des projets scientifiques innovants et à fort enjeu sociétal. Dans le cadre d’un programme de recherche dédié à l’aléa sismique à Mayotte, l’objectif est de détecter et cartographier les interfaces géologiques responsables de l’effet de site, phénomène amplifiant localement les ondes sismiques. Après une phase exploratoire sur trois sites pilotes, le projet vise désormais l’automatisation de cette détection à l’échelle de l’île à partir de données électromagnétiques aéroportées (AEM). Sujet : Dans le contexte volcanique et sismique de Mayotte, la présence d’interfaces géologiques marquant des contrastes lithologiques importants (passage de couches dures à meubles) joue un rôle majeur dans l’amplification locale des ondes sismiques. Identifier ces interfaces à grande échelle est essentiel pour la cartographie de l’aléa sismique. Le BRGM a conduit une première phase de détection manuelle sur trois zones test via l’analyse de données AEM (résistivités), complétée par une phase d’automatisation sur l’ensemble de l’île. Les premiers tests sur des modèles supervisés se sont révélés insuffisants, notamment pour prédire les interfaces peu représentées. Une approche alternative consistant à reformuler le problème comme une tâche de segmentation d’image avec un réseau U-Net 2D a permis de mieux exploiter la continuité spatiale des profils AEM. Cependant, la validation de ce modèle a montré des limites,avec une concentration des erreurs dans certaines profondeurs critiques (5-10 m et 20-40 m), rendant les performances trop optimistes. L’objectif du stage est de continuer ces développements en comparant plusieurs méthodologies avancées pour la détection automatisée de ces interfaces géologiques à partir des profils AEM. Les approches testées incluront : – des modèles classiques améliorés (RF, CNN) ; – des approches topologiques (TDA) pour quantifier l’incertitude structurelle ; – des approches guidées par la physique (PINNs) intégrant des contraintes géologiques Le ou la stagiaire devra construire des baselines reproductibles, définir un protocole d’évaluation robuste, comparer les performances des modèles sur l’ensemble de l’île, et surtout évaluer leur capacité à corriger les erreurs récurrentes identifiées sur les zones critiques (Dembeni, Longoni). Une attention particulière sera portée à la localisation des faux positifs/négatifs en profondeur. L’analyse des résultats par cartographie d’erreurs enrichira les réflexions sur la généralisation des approches IA en géosciences. Profil du candidat : Vous êtes autonome, curieux·se et rigoureux·se, avec une capacité à structurer et documenter vos analyses. Vous êtes à l’aise pour explorer, prétraiter, visualiser et interpréter des jeux de données complexes. Vous accordez une attention particulière à la robustesse méthodologique et êtes capable d’évoluer dans un environnement de recherche. Doté·e d’un bon relationnel, vous savez collaborer au sein d’une équipe pluridisciplinaire, en lien étroit avec des spécialistes du domaine (géologues, géophysiciens, data scientists). Vous faites preuve de rigueur scientifique, d’esprit critique et de qualités de communication, à l’écrit comme à l’oral. Formation et compétences requises : Formation de niveau Bac+5 : Master 2 ou dernière année d’école d’ingénieur, avec spécialisation en data science, intelligence artificielle, mathématiques appliquées ou géosciences numériques. Solides bases en apprentissage automatique : régression, classification, réseaux de neurones. Maîtrise du langage Python et des bibliothèques standards en data science : scikit-learn, PyTorch ou TensorFlow, NumPy, Pandas, Matplotlib. Une première expérience avec des architectures convolutives (CNN) ou de segmentation (U-Net) est un atout. Une familiarité avec les problématiques de traitement de données géospatiales ou géophysiques est appréciée. Des connaissances en Topological Data Analysis (TDA) ou en Physics-Informed Neural Networks (PINNs) seraient un plus, mais peuvent être développées durant le stage. Intérêt pour les notions de validation rigoureuse, d’incertitude, de reproductibilité et de qualité des données. Adresse d’emploi : 3 avenue Claude Guillemin, 45000 Orléans Document attaché : 202511060727_Stage_BRGM_2026.pdf Offre en lien avec l’Action/le Réseau : RECAST/– — – Laboratoire/Entreprise : LIMOS, UMR 6158 / Mines Saint-Étienne Durée : 4-6 mois Contact : maxime.lefrancois@emse.fr Date limite de publication : 2025-12-15 Contexte : Physical quantities form an important part of what is represented in scientific data, medical data, industry data, open data, and to some extent, various private data. Whether it is distances, speeds, payloads in transportation, concentrations, masses, moles in chemistry, powers, intensities, voltages in the energy sector, dimensions of furniture, weights, heights of people, durations, and many others in health, there is a need to represent physical quantities, to store them, to process them, and to exchange them between information systems, potentially on a global scale, often on the Internet and via the Web. Sujet : In this internship, we seek to precisely define a way to unambiguously represent physical quantities for the Web of Data. More precisely, we will study the proposals made to encode physical quantities in the standard data model of the Semantic Web, RDF. We will be particularly interested in the use of a data type dedicated to this encoding, probably adapted from the proposal of Lefrançois & Zimmermann (2018) based on the UCUM standard. Having established a rigorous definition of the data type (possibly its variants, if relevant), we will focus on implementing a module that can read/write and process physical quantities and their operations within the RDF data manipulation APIs, for the management, querying and reasoning with knowledge graphs containing physical quantities. The ambition is that, on the one hand, the specification will become in a few years a de facto standard, before perhaps becoming a de jure standard; and that, on the other hand, the implementation will be the reference allowing to compare the compliance levels of other future implementations. This study should lead to the publication of a scientific paper in a high impact scientific journal. References Maxime Lefrançois and Antoine Zimmermann (2018). The Unified Code for Units of Measure in RDF: cdt:ucum and other UCUM Datatypes. In The Semantic Web: ESWC 2018 Satellite Events – ESWC 2018 Satellite Events, Heraklion, Crete, Greece, June 3-7, 2018, Revised Selected Papers, volume 11155 of the Lecture Notes in Computer Science, pp196–201, Springer. Gunther Shadow and Clement J. McDonald. The Unified Code for Units of Measure. Technical report, Regenstrief Institute, Inc, November 21 2017. Profil du candidat : Master 2 students in computer science To apply, please submit by email or in an online file repository your CV, motivation letter, university transcripts, and possibly letters of recommendation. The motivation letter must explain why you are interested in this topic and why you are qualified to work on this topic. Formation et compétences requises : Equivalent of a M2 level in CS, with knowledge of Semantic Web technologies. Also, the candidate must have either very good programming skills in Java, or very good aptitude in formal and abstract thinking. Adresse d’emploi : Mines Saint-Étienne, Institut Henri Fayol, 29 rue Pierre et Dominique Ponchardier, 42100 Saint-Étienne, France Dec 30 Tue 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Centre Génie Industriel, IMT Mines Albi Durée : 6 mois Contact : myriam.lamolle@mines-albi.fr Date limite de publication : 2025-12-30 Contexte : Ce stage s’inscrit dans le projet TABGHA qui se veut un outil de génération démultiplié de concepts hautement valorisables afin de promouvoir l’innovation avec l’aide du CGI (Centre de Génie Industriel) d’IMT Mines Albi (cgi.mines-albi.fr) et le LIASD, Université Paris 8. Sujet : Face à la méconnaissance des cultures innovations susceptibles de créer des ressources et le peu d’étude sur la valorisation économique des recherches (spin off, licence, prestation), le transfert de technologie devient crucial. Pour cela, il faut, à partir d’une technologie générique (souvent sur étagère), multiplier les cas applicatifs (marchés d’atterrissage) pour accroitre les chances de valorisation (et aussi poursuivre les développements). À ce jour, de nombreuses méthodes existent pour générer ces différents cas applicatifs : design thinking, analyse fonctionnelle… Aucune d’entre elles ne faisant l’unanimité, le projet vise à développer une plateforme open-source en « Knowledge As A Service » (KaaS) comme écosystème digital fondé sur des composants logiciels qui se combinent pour collaborer de façon à permettre une évolution graduelle du système au travers de nouvelles contributions et de nouveaux composants fournis par la communauté. L’objectif sous-jacent est de découvrir dans la base de connaissance constituée des connaissances cachées et de déterminer des analogies afin d’aider des décideurs à trouver de nouveaux domaines d’application de leur concept/produit ou à créer de nouveaux concept/produit. Vous contribuerez à lever un des verrous scientifiques du projet : concevoir un ou des algorithmes d’alignement de méthodes de design thinking fondés sur l’analyse structurelle et sémantique de graphes de connaissances (ou ontologie modulaire). Objectifs concrets : 1. Modéliser sous forme d’une ontologie les méthodes C-K, Vianeo (voire TriZ1) ; 2. En suivant une méthode scientifique, concevoir et implémenter des algorithmes permettant d’aligner semi-automatiquement les méthodes citées : les classes, les relations entre ces classes, etc. en explicitant les règles de transformation. Peupler la base de connaissance et évaluer les algorithmes sur le mini-cas d’étude réaliste ; 3. Créer les IHM pour offrir les services : a) de choix de la méthode par laquelle le projet d’innovation sera développé ; b) ou d’hybridation de méthodes pour une approche multi-points de vue ; 4. Rédiger un article de conférence internationale avec l’équipe d’encadrement. Profil du candidat : Bac+5 (Master 2 ou dernière année d’école d’ingénieur) en Informatique, Mathématiques Appliquées ou domaine connexe Formation et compétences requises : Compétences techniques indispensables : • Maîtrise des concepts de l’IA neuro-symbolique ; • Capaciter à conceptualiser des méthodes complexes • Maîtrise d’outils et méthodes d’analyse de graphes • Excellente compréhension écrite, bonne expression (lecture/rédaction d’articles) et bonne compréhension orale en anglais Qualités personnelles attendues • Capacité à proposer des idées algorithmiques dès l’entretien • Être moteur dans les échanges scientifiques et la validation d’idées • Goût pour la formalisation mathématique et l’expérimentation méthodique • Appréciation pour la recherche bibliographique Un plus : • Expérience en recherche (stage labo, projet R&D…) • Connaissance des ontologies et des logiques de description • Intérêt pour les systèmes à base de raisonnement Adresse d’emploi : IMT Mines Albi (Centre de génie industriel), Albi (81) Document attaché : 202511171603_offreStageM2_sujet1_2026.pdf Dec 31 Wed 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : CIRAD – UMR TETIS Durée : 6 mois Contact : roberto.interdonato@cirad.fr Date limite de publication : 2025-12-31 Contexte : Food systems are highly interconnected between countries on a global scale, as shown by recent disruptions such as the war in Ukraine and the global pandemic. Food flows are vulnerable to shocks, and these disruptions influence food prices, which in turn affect food consumption patterns. This has had a significant impact on people’s diets, particularly in underdeveloped countries where food security is already fragile. However, scientists and policy-makers lack the data and tools to identify weak points in food flows and build food systems resilient to shocks and disruptions. While considerable progress has been made using Earth Observation data to map crop locations and agricultural productivity (e.g. crop yields), little attention has been paid to the intermediate stages of the workflow – distribution, processing and markets – which are key to understanding and modeling how food moves from production to consumption. Additionally, numerous geospatial datasets, such as OpenStreetMap, are publicly accessible and provide valuable information on land use and land cover. Thanks to advances in artificial intelligence and its application to Earth Observation data, continuously collected satellite images on a global scale, combined with meteorological data, make it possible to monitor food systems in real time. Deep learning models, capable of capturing complex, non-linear relationships, and multimodal algorithms integrating data from a variety of sources, are opening up new perspectives in this field. This internship proposes to exploit multi-temporal and multi-resolution Earth observation data, by combining them with learning models, to monitor food systems, estimate agricultural yields and analyze their links with market prices. This internship focuses on developing machine learning approaches to analyze food flows in Rwanda, in relation to food security situation in the country, by using comprehensive market data and geospatial information. Food flows often deviate from optimal distribution patterns due to infrastructure constraints, market dynamics, and socio-economic factors. For example, a certain product (e.g., potatoes) grown in northern regions may follow suboptimal routes to reach southern markets. By modeling both ideal and actual food flows, we can identify bottlenecks and opportunities to improve food security. Sujet : Missions : The project aims to understand the relationship between food production locations, distribution networks, and market accessibility to inform food security policies. More specifically, the final task is to build a machine learning model able to predict the probability that a certain item is sold in a specific market, based on production and distribution data. The project leverages two primary datasets: · Public Market Dataset: 1.2 million items across 70 markets covering 10 types of food items. · CGIAR/IITA Survey Database: A dataset collected by the IITA (International Institute of Tropical Agriculture) including monthly data from 7,000 vendors across 67 markets in all districts of Rwanda, including food quality assessments and detailed market information. These datasets will be complemented by geospatial data including OpenStreetMap (OSM) infrastructure data, land cover information, and Earth observation data (NDVI and other spectral indices). The main tasks to address during the internship will be: 1. Database Integration and Market Mapping a. Merge the public market dataset with CGIAR/IITA survey data to create a comprehensive market database b. Map which specific food items are sold in which markets 2. Geospatial Data Integration a. Incorporate OpenStreetMap data to understand transportation networks and market accessibility b. Integrate land cover and agricultural production data to identify food production zones c. Process Earth observation data (NDVI, meteorological data) to assess agricultural productivity d. Map the complete food system from production areas to consumption markets 3. Machine Learning Model Development a. Develop predictive models to estimate the probability that specific food items will be available in particular markets b. Compare actual food flows with modeled optimal flows to identify inefficiencies c. Test developed models against baseline methodologies and state-of-the-art approaches 4. Writing of the internship report (in English) to capitalize on the work carried out with a view to a possible scientific publication. If possible, also release associate code and data. Profil du candidat : Skills required : – Programming skills – Interest in data analysis – Scientific rigor – Curiosity and open-mindedness – Analytical, writing and summarizing skills How to apply : Send CV, cover letter and M1 (or 4th year) transcript to : simon.madec@cirad.fr , roberto.interdonato@cirad.fr specifying as e-mail subject “CANDIDATURE STAGE DIGITAG”. Additional Information : – Duration of 6 months, starting February 2025 – Remuneration: CIRAD salary scale, ~600 euros/month – The internship will take place at CIRAD, in the UMR TETIS (Territory, Environment, Remote Sensing and Spatial Information), located at the Maison de la Télédétection in Montpellier. – The internship will be carried out in collaboration with Assistant Professor Claudia Paris and Yue Dou, currently working at the ITC Faculty of Geographic Information Science and Earth Observation, University of Twente, Netherlands. Formation et compétences requises : Skills required : – Programming skills – Interest in data analysis – Scientific rigor – Curiosity and open-mindedness – Analytical, writing and summarizing skills How to apply : Send CV, cover letter and M1 (or 4th year) transcript to : simon.madec@cirad.fr , roberto.interdonato@cirad.fr specifying as e-mail subject “CANDIDATURE STAGE DIGITAG”. Additional Information : – Duration of 6 months, starting February 2025 – Remuneration: CIRAD salary scale, ~600 euros/month – The internship will take place at CIRAD, in the UMR TETIS (Territory, Environment, Remote Sensing and Spatial Information), located at the Maison de la Télédétection in Montpellier. – The internship will be carried out in collaboration with Assistant Professor Claudia Paris and Yue Dou, currently working at the ITC Faculty of Geographic Information Science and Earth Observation, University of Twente, Netherlands. Adresse d’emploi : 500 rue Jean François Breton, 34090, Montpellier Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Sesstim, Aix Marseille Université Durée : 6 Mois Contact : raquel.urena@univ-amu.fr Date limite de publication : 2025-12-31 Contexte : Ce stage s’inscrit dans un projet de recherche à l’interface de l’intelligence artificielle et de la santé, mené au sein d’une équipe multidisciplinaire réunissant informaticiens, médecins, biostatisticiens et chercheurs en santé publique. L’objectif global est de modéliser et d’analyser les parcours de soins longitudinaux des patients à partir de données massives issues des bases médico-administratives (SNDS). Ces travaux permettront d’identifier des profils de patients, des ruptures de parcours et des facteurs de réhospitalisation, afin d’améliorer la compréhension et la personnalisation de la prise en charge. Le stage se déroulera au sein de l’équipe CaLIPSo / SESSTIM (Aix–Marseille Université), sur le IPC à Marseille, dans un environnement stimulant à l’interface de l’IA, de la santé et des sciences sociales. Le stagiaire sera encadré par Raquel URENA, maître de conférences en informatique especialiste en IA et santé, et travaillera en interaction directe avec des chercheurs en IA, des épidémiologistes et des cliniciens de de l’Institut Paoli-Calmettes, sur des données massives réelles à fort impact sociétal. Sujet : Objectifs du stage Le stagiaire participera à la conception et au développement de modèles innovants de modélisation automatique des trajectoires de soins en utilisant des techniques avancées de representation learning et de Large Language Models (LLMs) appliquées aux données de santé. Les principales missions incluent : • Extraction et structuration de trajectoires temporelles à partir de données massives (diagnostics, actes, hospitalisations, prescriptions). • Développement de représentations patient à l’aide de modèles de deep learning. • Comparaison et évaluation de différentes approches de representation learning. • Identification de profils de soins, visualisation et interprétation des trajectoires representations. Profil du candidat : Compétences requises • Solides connaissances en machine learning, representation learning et modélisation de séries temporelles. • Maîtrise de Python (Pandas, NumPy, Scikit-learn, PyTorch/TensorFlow) et des bases de données SQL. • Langue française indispensable, niveau avancé en anglais (oral et écrit). • Excellentes capacités de rédaction scientifique et de communication. • Curiosité, rigueur scientifique, autonomie et goût pour le travail interdisciplinaire. Environnement de travail Formation et compétences requises : M2 Informatique/ IA/ Mathémathiquées appliqués Adresse d’emploi : 232 Bd de Sainte-Marguerite, 13009 Marseille Jan 15 Thu 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire Oceanographique de Villefranche-sur-me Durée : 6 mois Contact : enza.labourdette@imev-mer.fr Date limite de publication : 2026-01-15 Contexte : Le phytoplancton regroupe les micro-organismes marins dérivant au gré des courants et capables de produire de la matière organique grâce à la photosynthèse. Il joue un rôle essentiel dans le fonctionnement du système Terre : il contribue à environ la moitié de la photosynthèse planétaire, participe au stockage du carbone à l’échelle climatique via la pompe biologique, et constitue la base des réseaux trophiques marins. Mieux comprendre la répartition et la diversité du phytoplancton, en lien avec les conditions physiques et biogéochimiques de son environnement, est donc fondamental. Cela permet d’estimer plus finement sa biomasse, son rôle dans les cycles biogéochimiques et d’anticiper les réorganisations induites par les changements climatiques et océaniques globaux. Cependant, l’observation directe du phytoplancton à grande échelle demeure limitée, car elle repose sur des campagnes en mer et des prélèvements coûteux. Les données HPLC (High Performance Liquid Chromatography), qui permettent d’analyser les pigments photosynthétiques pour quantifier précisément les communautés phytoplanctoniques, offrent une référence fiable, mais restent coûteuses et spatialement limitées. Pour étendre ces observations ponctuelles à l’échelle globale, les satellites d’observation de la couleur de l’océan constituent un outil clé. Les algorithmes empiriques actuels permettent d’estimer la composition du phytoplancton à partir des réflectances optiques , mais ils présentent encore une marge d’erreur importante et ne capturent pas toujours la complexité spatiale et temporelle des structures océaniques (fronts, tourbillons, etc.). Sujet : Ce stage s’inscrit dans la continuité d’une thèse centrée sur la prédiction des Phytoplankton Functional Types (PFTs) à partir de la couleur de l’eau et de variables satellitaires à l’aide de méthodes de deep learning. L’objectif principal est d’améliorer la robustesse et la précision des prédictions en intégrant explicitement la dimension temporelle des données au moyen de méthodes avancées de deep learning. Concrètement, cela consiste à exploiter les images satellites des jours ou des semaines précédentes pour estimer la quantité et la composition du phytoplancton à un instant t donné. En effet, la croissance du phytoplancton est un processus dynamique, et son état actuel dépend fortement des états antérieurs du système. Un pipeline opérationnel est déjà en place : – les données satellitaires et in situ ont été extraites et prétraitées, – des modèles de type MLP (Multi-Layer Perceptron) ont été développés et évalués, – une première étude de la sensibilité, en termes de qualité des prédictions, aux variables d’entrée et à l’architecture du modèle a été menée, – une seconde étude, sur l’intégration de la dimension spatiale dans les données d’entrée, est en cours. Le stage consistera à poursuivre et à approfondir ces travaux, notamment en : – explorant de nouvelles architectures de deep learning (par ex. RNN) permettant de mieux capturer la structure temporelle des données ; – évaluant l’impact de cette intégration sur la qualité des prédictions de PFTs ; – affinant l’interprétation des modèles pour mieux comprendre les liens entre conditions environnementales et composition des communautés phytoplanctoniques. Ce travail contribuera directement à l’amélioration des produits satellitaires de distribution phytoplanctonique à l’échelle globale, utiles pour le suivi de la santé des écosystèmes marins et la gestion durable des ressources océaniques. Objectifs du Stage : – Compréhension de la problématique biologique. – Étude des relations entre les propriétés optiques de l’eau et les PFTs. – Prise en main et optimisation du pipeline existant, de la sélection et du traitement des données jusqu’à leur exploitation dans un modèle de deep learning. – Analyse de la variabilité spatio-temporelle : quantifier l’impact de l’intégration des dimensions spatiale et temporelle sur la prédiction des PFTs. – Mise en forme et valorisation des résultats pour une utilisation dans des travaux de recherche à publier. Profil du candidat : Formation et compétences requises : – Intérêt marqué pour la recherche et les sciences marines. – Maîtrise du langage Python. – Connaissances en deep learning (PyTorch). – Des notions en écologie, biologie marine ou océanographie seraient un atout. Adresse d’emploi : 181 chemin du Lazaret Villefranche-sur-Mer, France Document attaché : 202511140931_STAGE 2026 – ANNONCE.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : ICube Durée : 5-6 mois Contact : florence.leber@engees.unistra.fr Date limite de publication : 2026-01-15 Contexte : The restoration or naturalization of hydro-ecosystems is a major challenge for the coming years in order to protect and preserve the quality and quantity of river water. Many restoration works – both recent and historical – have generated large amounts of textual documentation (reports, archival documents, project plans, regulations, scientific articles) and visual material (maps, drawings, aerial/satellite imagery, photographs, cross-sectional charts). However, that material is often unstructured, scattered across institutions, in multiple languages, and not organized to support comparative analysis, learning, or decision-making effectively. Sujet : The main research task involves applying and refining VLMs to extract complementary information from visual and textual data. The VLMs should recognize and describe restoration structures, spatial configurations, and temporal stages (before, during, and after restoration) from images. They should extract objectives, methodologies, outcomes, and environmental parameters from text. A key scientific challenge lies in the multi-modal alignment of information linking visual elements and textual references to produce consistent and interpretable outcomes. Building on these results, the internship will contribute to the enrichment of an already existing structured knowledge model (ontology), describing restoration cases through key properties including intervention type, environmental context, methods, results, constraints, and costs. In addition to enriching the knowledge model, another key point is populating the knowledge model by constructing knowledge graphs with information extracted from images and text, ensuring querying, comparison, and visualization by researchers and practitioners. Profil du candidat : Knowledge on data science methods, knowledge representation and reasoning, knowledge graphs. Languages: Python, java, owl/sparql. Interest in the application domain, ability to work with experts who are not computer scientists would be appreciated. Formation et compétences requises : Student about to graduate a Master or Engineer (Bac + 5) with a specialization in Computer Science. Adresse d’emploi : ICube — 300 bd Sébastien Brant – CS 10413 – F-67412 Illkirch Cedex Meetings at ENGEES, 1 cour des cigarières, Strasbourg. Document attaché : 202511141617_Sujet_stage_TETRA_VLM.pdf Jan 16 Fri 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : PRISME / Université d’Orléans Durée : 6 mois Contact : youssef.fouzai@etu.univ-orleans.fr Date limite de publication : 2026-01-16 Contexte : Ce stage s’inscrit dans le cadre du projet régional CERES, porté par le BRGM en partenariat avec le laboratoire PRISME de l’Université d’Orléans, Thélem Assurances et l’Agglomération de Blois. L’objectif global du projet est de caractériser grâce à des techniques d’intelligence artificielle les éléments exposés du territoire du Centre-Val de Loire face aux risques naturels. On s’appuie sur des images satellitaires, d’autres issues de Google Street View (GSV )et des données cartographiques. Sujet : Dans le cadre du stage, les travaux à effectuer visent à approfondir l’analyse des façades de bâtiments, afin de produire des éléments exploitables pour caractériser leur vulnérabilité face aux risques naturels dont le retrait/gonflement argileux qui fissure les constructions. Une façade contient de nombreux indicateurs de vulnérabilité auxquels l’expert attache une grande attention comme la surface et la position des portes et fenêtres ou la géométrie du bâtiment, pour l’affecter à une classe de vulnérabilité. L’exploitation des images GSV utilisera des modèles deep learning pour détecter les façades dans les images et extraire des caractéristiques permettant d’en déduire un niveau de vulnérabilité Les résultats du stage seront exploités dans le cadre de la thèse du doctorant qui participera à l’encadrement du stagiaire. Profil du candidat : BAC+5 (Master 2/ école ingénieur) en informatique. Formation et compétences requises : BAC+5 (Master 2/ école ingénieur) en informatique avec de bonnes connaissances en traitement d’images, la maîtrise de la programmation Python (Pandas, NumPy, Scikitlearn, PyTorch/TensorFlow) ainsi qu’en apprentissage profond et un bon niveau d’anglais. Quelques connaissances en Systèmes d’Information Géographique (SIG) seraient également appréciées. Adresse d’emploi : Polytech, 12 Rue de Blois, 45100 Orléans Document attaché : 202510311400_Stage Master_PRISME_CERES_v1.pdf Jan 31 Sat 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIAS Durée : 6 mois Contact : baron@ensma.fr Date limite de publication : 2026-01-31 Contexte : Bimedia, filiale du groupe Orisha, est une entreprise spécialisée dans les solutions destinées aux points de vente de proximité (bureaux de tabac, boulangeries, etc.). Son offre repose sur un ensemble de services comprenant du matériel (caisses enregistreuses à double écran : le premier pour le commerçant et le second pour le client final), un logiciel d’encaissement, des solutions dématérialisées (cartes prépayées, etc.), ainsi que des dispositifs d’animation commerciale via des publicités diffusées sur l’écran client des caisses. Si le point de vente est identifié, le client final, lui, ne l’est pas. Pour pallier cette limite, une initiative récente baptisée BMyShop 1, proposée par Bimedia sous la forme d’une application mobile, permet d’associer certains clients finaux grâce à un programme de fidélité. Les informations collectées se limitent aux données strictement nécessaires (prénom, nom, âge) en conformité avec la réglementation (RGPD). Toutefois, cette base de clients finaux identifiés reste restreinte par rapport au volume de transactions réellement effectuées dans les commerces par des clients finaux anonymes, ce qui pose un défi scientifique pour exploiter des données partielles et anonymisées afin de caractériser, enrichir ou déduire des profils clients représentatifs. Bimedia s’est associée au laboratoire LIAS, dans le cadre d’un projet de recherche appliquée. Trois enseignants-chercheurs et un ingénieur de recherche encadreront un étudiant de Master 2 (université ou école d’ingénieurs). Le travail attendu visera à développer des techniques d’apprentissage automatique (clustering, apprentissage semi-supervisé, génération de données synthétiques, intégration de données externes, etc.) pour construire des profils représentatifs tout en garantissant l’anonymat des participants. Pour comparer sa proposition avec l’état de l’art, l’étudiant devra identifier des bancs d’essai adaptés ou en définir un nouveau. Un objectif secondaire consistera à calculer un indice de confiance sur le profil établi en utilisant la théorie des modèles probabilistes. Sujet : L’objectif de ce stage est d’explorer des approches d’analyse et d’enrichissement de données à partir des bases transactionnelles (l’historique d’achats) issues d’une part des clients identifiés via l’application BMyShop et, d’autre part, des clients anonymes. Le stage visera à définir des techniques permettant de caractériser et d’associer des profils clients à partir de données partielles : – élaboration de modèles prédictifs basés sur l’état de l’art et adaptés aux besoins spécifiques de Bimedia ; – évaluation des différents modèles obtenus ; – calcul d’indices de confiance sur les prédictions. Si possible, les techniques développées devront mener à des modèles explicables pour que les analystes métiers de Bimedia puisse comprendre et accorder une certaine confiance aux résultats obtenus. À noter que la réalisation d’un prototype de faisabilité sera demandé. Il ne s’agit pas de développer un logiciel industriel, qui lui sera à la charge de l’entreprise. L’entreprise souhaite juste s’assurer de la faisabilité technique et scientifique de la démarche proposée. Profil du candidat : Le candidat doit être en Master 2 en Informatique ou en dernière année de préparation d’un diplôme d’ingénieur spécialité Informatique. Formation et compétences requises : Une bonne connaissance du langage de programmation Python et des bibliothèques usuelles d’apprentissage automatique est requise. Un bon niveau en français est fondamental. Adresse d’emploi : https://www.lias-lab.fr/jobs/2026_lias_idd_profilsclients_fr.pdf Document attaché : 202511071103_2026_lias_idd_profilsclients_fr.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire d’Informatique et Systèmes – LIS – UMR Durée : 5 à 6 mois Contact : marc-emmanuel.bellemare@univ-amu.fr Date limite de publication : 2026-01-31 Contexte : Le stage se déroulera à Marseille essentiellement au laboratoire d’informatique et des systèmes (LIS) dans l’équipe Images & Modèles sur le campus de St Jérôme (https://im.lis-lab.fr). Le LIS UMR 7020 fédère plus de 375 membres. La recherche y est structurée au sein de pôles (calcul, science des données, analyse et contrôle des systèmes, signal et image), et centrée sur les activités dans les domaines de l’informatique, de l’automatique, du signal et de l’image. L’apprentissage profond en particulier y est un thème transverse et le LIS dispose d’une plateforme dédiée, un cluster de nœuds GPU ainsi que le personnel de gestion nécessaire. Sujet : La modélisation des déformations des organes abdominaux revêt une importance cruciale pour la santé des patients et pour de nombreuses applications cliniques, telles que la planification de la radiothérapie adaptative, le suivi de la progression des maladies ou encore l’analyse biomécanique des tissus. L’imagerie par résonance ma- gnétique (IRM) peut offrir une visualisation spatiale et en coupe des déformations d’organes in vivo. Cependant, l’état de l’art actuel présente plusieurs limitations, notamment en termes de résolution et de reconstruction fidèle de l’évolution tridimensionnelle et dynamique des organes. L’objectif de ce stage est de proposer des solutions innovantes pour pallier ces limites. Dans le cadre d’un projet de recherche mené en collaboration avec l’AP-HM, nous nous intéressons au suivi des déformations des principaux organes pelviens. L’approche actuelle [1, 4] consiste à détecter un contour sur une série d’images 2D, puis à effectuer un échantillonnage spatial de ce contour initial. Les contours suivants sont ensuite estimés de manière récurrente à l’aide d’un modèle de transport optimal, la déformation finale étant calculée à partir de la distance entre les points d’échantillonnage obtenus. Cependant, cette méthode présente plusieurs faiblesses : la construction de l’échantillonnage est souvent arbitraire, le transport optimal peut introduire des biais difficiles à maîtriser, et la définition même de la distance utilisée reste discutable. Ces éléments limitent la robustesse et la généralisabilité de l’approche, malgré son intérêt scientifique certain. Afin de dépasser ces limitations, ce stage vise à exploiter des modèles et méthodes récents capables d’apporter plus de cohérence et de précision à la modélisation des déformations. Le premier axe d’amélioration concerne la discrétisation : celle-ci peut être évitée grâce aux représentations neuronales implicites (Implicit Neural Representations, INRs). Ces dernières reposent sur le principe d’approximation universelle des réseaux de neurones, leur permettant de représenter n’importe quelle forme continue. Ainsi, le contour précédemment échantillonné sera alors directement modélisé par un réseau neuronal. Pour l’estimation des déformations, nous proposons d’utiliser des réseaux de neurones informés par la phyique (Physics-Informed Neural Networks, PINNs). L’idée est d’intégrer des contraintes issues des équations mécaniques de la déformation afin d’estimer à la fois le champ de déformation et les paramètres des lois de comportement des tissus. En résumé, le stage a pour objectif de combiner les représentations neuronales implicites et les réseaux de neurones informés par la physique afin de modéliser les déformations d’organes alignées sur des données d’imagerie IRM, offrant ainsi une approche plus continue, précise et physiquement cohérente de la dynamique des organes observés. Réalisation L’objectif principal de ce stage est de développer et d’évaluer des modèles de déformation d’organes, en s’appuyant sur des approches d’apprentissage profond et de modélisation physique. Les étapes et objectifs clés sont les suivants : — Développer une représentation neuronale implicite (INR) des contours de déformation de la vessie en 2D + temps. — Évaluer les performances de cette représentation en termes de précision et de continuité temporelle. — Concevoir une approche basée sur les réseaux de neurones informés par la physique afin de reconstruire le champ de déformation et d’estimer les paramètres mécaniques du comportement. — Évaluer les performances du PINN selon deux perspectives possibles : — comme modèle hybride, intégrant à la fois les données expérimentales et les contraintes issues des équations physiques, afin de guider l’apprentissage vers des solutions cohérentes avec les lois mécaniques. — ou comme problème inverse, visant à identifier les paramètres physiques (par ex. propriétés mécaniques des tissus) et les déformations spatiales à partir des données observées, tout en respectant les équations de la mécanique des milieux continus. — Perspective d’extension vers la 3D+temps Données Le projet s’appuiera sur un jeu de données d’IRM dynamiques de la vessie, collecté auprès de 50 patientes. L’échantillonnage temporel, à raison d’une image par seconde, des séquences sagittales dynamiques fournit 12 images par patiente. Les contours de la vessie ont été extraits de manière manuelle ou semi-automatique, sur l’ensemble des images de la séquence dynamique. Au total, 600 contours ont ainsi été obtenus, constituant la base de données utilisée pour l’apprentissage et l’évaluation des performances du modèle. Profil du candidat : Le ou la candidat.e sera intéressé.e par un domaine pluridisciplinaire embrassant l’analyse d’image, les mathématiques appliquées, le deep-learning, dans un contexte médical. Des connaissances en équations aux dérivées partielles (EDP) et en méthodes de résolution par éléments finis constituent un atout supplémentaire pour ce stage. Formation et compétences requises : De formation Bac+5 dans une formation concernée par le traitement d’image. Une expérience de la programmation avec l’environnement python est un pré-requis, la connaissance de la bibliothèque JAX serait un plus. Le stage aura une durée de 4 à 6 mois avec la gratification d’usage (de l’ordre de 600€ par mois). Adresse d’emploi : Laboratoire d’Informatique et Systèmes – LIS – UMR CNRS 7020 – Aix-Marseille Université Campus scientifique de St Jérôme – Av. Escadrille Normandie Niemen -13397 Marseille Cedex 20 www.lis-lab.fr Document attaché : 202511071339_M2_stage_LIS_PINN.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire d’Informatique et Systèmes LIS – UMR Durée : 5 à 6 mois Contact : marc-emmanuel.bellemare@lis-lab.fr Date limite de publication : 2026-01-31 Contexte : Le stage se déroulera à Marseille essentiellement au laboratoire d’informatique et des systèmes (LIS) dans l’équipe Images & Modèles sur le campus de St Jérôme (https://im.lis-lab.fr). Le LIS UMR 7020 fédère plus de 375 membres. La recherche y est structurée au sein de pôles (calcul, science des données, analyse et contrôle des systèmes, signal et image), et centrée sur les activités dans les domaines de l’informatique, de l’automatique, du signal et de l’image. L’apprentissage profond en particulier y est un thème transverse et le LIS dispose d’une plateforme dédiée, un cluster de nœuds GPU ainsi que le personnel de gestion nécessaire. Sujet : Le stagiaire s’attachera à la segmentation des images acquises lors de l’observation par IRM dynamique des déformations des organes pelviens afin de produire des reconstructions 3D des surfaces en mouvement. Les troubles de la statique pelvienne représentent un enjeu de santé publique. Ils regroupent un ensemble de pathologies associant une perte des rapports anatomiques normaux des organes pelviens, et une altération dramatique de la qualité de vie des malades. Ces pathologies sont handicapantes à des degrés variés mais leur physiopathologie reste encore mal connue ce qui complique leur prise en charge. Dans le cadre d’une collaboration avec le service de chirurgie digestive de l’AP-HM, de nouvelles acquisitions IRM, associées à une reconstruction adaptée, ont permis la visualisation 3D des organes en mouvement. Des résultats probants ont été récemment obtenus et publiés pour l’observation de la vessie (Figure) et il s’agit de s’intéresser aux autres organes pelviens. Des acquisitions multi-planaires ont été réalisées dans des plans non classiques ce qui complique la reconnaissance des organes. Ainsi la segmentation des principaux organes impliqués est une étape primordiale mais difficile. Les partenaires cliniciens ont réalisé des segmentations manuelles des organes sur ces plans ce qui permet de disposer d’une vérité-terrain. Nous envisageons de proposer un nouveau modèle de réseau, adapté à la configuration des plans d’acquisition. Les problématiques de recalage, de segmentation et de modèles 3D, au cœur du projet, seront abordées selon les compétences et préférences du stagiaire. Profil du candidat : Le candidat ou la candidate de niveau Bac+5 dans une formation intégrant le traitement d’images, sera intéressé(e) par un projet pluridisciplinaire et par l’imagerie médicale. Les domaines abordés concernent les réseaux de neurones profonds, la segmentation d’IRM et la reconstruction 3D. Le stage aura une durée de 4 à 6 mois avec la gratification d’usage (de l’ordre de 600€). Formation et compétences requises : La compétence en programmation python est un pré-requis. Des compétences en mathématiques appliquées seront particulièrement appréciées. Une expérience de la programmation avec l’environnement PyTorch serait un plus. Adresse d’emploi : Laboratoire d’Informatique et Systèmes – LIS – UMR CNRS 7020 – Aix-Marseille Université Campus scientifique de St Jérôme – Av. Escadrille Normandie Niemen -13397 Marseille Cedex 20 www.lis-lab.fr Document attaché : 202511071329_Sujet_Master2_DL&SegmentationMultiPlan.pdf Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : IRISA/UBS Durée : 6 mois Contact : minh-tan.pham@irisa.fr Date limite de publication : 2026-01-31 Contexte : Sujet : Please see the attached PDF file. Profil du candidat : Formation et compétences requises : Adresse d’emploi : IRISA-UBS, 56000 Vannes Document attaché : 202510091448_2025_Master_topic_Dreams.pdf Feb 1 Sun 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LaSTIG – IGN Durée : 6 mois Contact : alexandre.hippert-ferrer@ign.fr Date limite de publication : 2026-02-01 Contexte : Sujet : Voir offre au format pdf. Profil du candidat : Niveau Master 2 en Machine Learning / Télédétection / Sciences de la Terre Formation et compétences requises : The internship requires a genuine interest and curiosity in Earth sciences (glaciology and climate science in particular). Strong skills in statistical mathematics, deep learning, computer vision, and remote sensing are expected. Proficiency in one or more machine learning libraries in Python (PyTorch, Tensorflow, Keras) is expected. A good level of scientific computing with Python (scipy, scikit-learn, numpy) is also required. Adresse d’emploi : LaSTIG Laboratory, IGN/ENSG, 6-8 avenue Blaise Pascal, 77420 Champs-sur-Marne, France. Document attaché : 202510081015_fiche_stageM2_GlacierDeepLearning_eng.pdf Feb 2 Mon 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : institut Fresnel Durée : 4 à 6 mois Contact : andre@fresnel.fr Date limite de publication : 2026-02-02 Contexte : Les technologies d’imagerie capables de détecter les processus biologiques précoces in vivo de manière non invasive pour des études longitudinales, avec une haute résolution, représentent un défi pour la recherche biomédicale. Le concept de notre système d’imagerie repose sur un nouveau d’imagerie optique diffuse de fluorescence multicolore pour l’imagerie in vivo du petit animal en trois dimensions (3D) dans la fenêtre NIR-II (1000-2000 nm). La tomographie optique diffuse de fluorescence consiste à injecter au sujet (ici une souris) des substances chimiques qui se fixent sur différents organes. Ces substances chimiques, appelées fluorophores, sont alors excitées par une source lumineuse puis réémettent de la lumière lors de leur relaxation, à plus faible énergie (plus longue longueur d’onde). L’objectif est de reconstruire des images à partir de ce signal de fluorescence. Le signal de fluorescence ainsi que la source d’excitation peuvent être atténués à la fois par l’absorption et la diffusion des différents milieux traversés, ce qui entraîne une distorsion des spectres mesurés. La reconstruction des images est généralement un problème mal-posé nécessitant l’utilisation d’algorithmes d’optimisation exploitant des connaissances apriori sur les volumes à reconstruire. Sujet : Le but du stage est le développement d’algorithmes de reconstruction spécifiques aux images hyper-spectrales i.e. lorsque le sujet est excité avec différentes longueurs d’onde et que le signal de fluorescence est échantillonnée à plusieurs longueurs d’onde. Les connaissances apriori sur les volumes à reconstruire seront estimées à l’aide d’algorithmes de deep learning. Profil du candidat : Le candidat recruté devra avoir être en dernière année d’école d’ingénieurs ou en Master 2 dans le domaine des mathématiques appliquées, le traitement du signal/images ou dans une formation équivalente. Il devra être particulièrement à l’aise en programmation (python/Matlab) et avoir une réelle appétence pour les interactions entre l’informatique et la physique. Formation et compétences requises : Adresse d’emploi : 52 Av. Escadrille Normandie Niemen, 13013 Marseille Document attaché : 202509290900_stage tomo hyper spectral.pdf Mar 1 Sun 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire IRISA Durée : 5-6 mois Contact : tristan.allard@irisa.fr Date limite de publication : 2026-03-01 Contexte : Health data, social networks, electricity consumption… Vast quantities of personal data are collected today by private companies or public organizations. Various legal, monetary, or visibility incentives push data holders to envision sharing versions of the collected datasets that provide both statistical utility and privacy guarantees. Indeed, sharing data at large, e.g., as open data, without jeopardizing privacy, is expected to bring strong benefits (strengthening, e.g., scientific studies, innovation, public policies). Synthetic data generation is a promising approach. First, synthetic data generation algorithms aim at generating datasets that are as close as possible to the original datasets. Either synthetically generated data or the generative models trained over the original data could be shared for supporting elaborate data analysis. Second, substantial progress has been made during the last decade about the privacy guarantees of synthetic data generation algorithms. For example, there exist today synthetic data generation algorithms that satisfy variants of differential privacy, one of the most prominent family of privacy models. However, the wealth of generative algorithms, of privacy models and algorithms, and of parameters makes it hard for non expert users to understand clearly the privacy implications of any given choice. Given the growing number of privacy attacks on machine learning models and especially on generative algorithms, an inappropriate choice can result in catastrophic consequences. Sujet : The main goal of this M2 thesis is to design an efficient approach for allowing a data holder to compute the most relevant privacy attacks given the data holder’s choice. The main tasks of the Master student will be to: • Study the state-of-the-art about privacy attacks (e.g., membership inference attacks [2, 4, 5]). We will focus on tabular data. • Formalize the attackers (e.g., adversarial goals, background knowledge, impacts and costs of the attacks, vulnerable algorithms), structure the space of attackers (e.g., generalization/specialization of attackers, implications), and explore efficiently the resulting space for finding the attacks that best illustrate the privacy risks. • Implement the approach and evaluate its performance. In addition to the core tasks of the project, the successful candidate will also contribute to the organisation of competitions where the privacy guarantees of synthetic data generation algorithms are challenged. Profil du candidat : • The candidate must be in the second year of a master’s degree, or equivalent, in computer science or in a related field. • The candidate must be curious, autonomous, and rigorous. • The candidate must be able to communicate in English (oral and written). The knowledge of the French language is not required. • The candidate must have a strong interest in cybersecurity. • Skills in machine learning will be appreciated. Formation et compétences requises : Adresse d’emploi : Campus de Beaulieu IRISA/Inria Rennes 263 avenue du Général Leclerc 35042 RENNES cedex Document attaché : 202511171626_m2-attacks-25_26.pdf
|