Postes/PostDocs/CDD
Jun 30 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : AMSE/IRPHE, Marseille Durée : 24 mois Contact : badihghattas@gmail.com Date limite de publication : 2025-06-30 Contexte : Researchers in statistics and fluid mechanics are collaborating on developing digital twins that replicate the behavior of CFD (computational fluid dynamics) models. Sujet : Substitution of Fluid Mechanics Numerical Models with Deep Learning Models. Applications to Vascular Pathologies Profil du candidat : We are looking for a candidate who demonstrates strong autonomy and the ability to work effectively within a collaborative team environment. The ideal candidate will possess excellent analytical and critical thinking skills, as well as a keen ability to listen, observe, and engage constructively in discussions. We also value flexibility, adaptability, and clear communication skills, both written and verbal. Formation et compétences requises : A phD in applied Mathematics, artificial intelligence or Mechanics with good skills in programming with python (keras, pytorch, numpy, pandas,…) and data manipulation and management. Adresse d’emploi : 5-9 Boulevard Maurice Bourdet, 13001 Marseille. Document attaché : 202505061131_PostDocAnnonceEn.pdf Jul 7 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : UFR de mathématique et d’informatique, Université Durée : 11 mois renouvelable Contact : cecilia.zanni-merk@insa-rouen.fr Date limite de publication : 2025-07-07 Contexte : Date de prise de fonction : 01/10/2025 Caractéristique du poste : 11 mois, contrat renouvelable (possibilité de passer en CDI de mission après le premier contrat) Rémunération : La rémunération principale, versée par l’Unistra est de 3824 € brut mensuel à laquelle s’ajoute une rémunération complémentaire par le partenaire Azerbaïdjanais (environ 1200€ brut mensuel). Le candidat ou la candidate devra être qualifié aux fonctions de Maître de Conférences par le CNU Sujet : Intitulé du profil Enseignement : Informatique La personne recrutée enseignera dans les diplômes de Licence et Master en informatique à l’UFAZ (Université Franco Azerbaidjanaise) à Bakou (Azerbaïdjan). Elle devra être capable d’enseigner la plupart des matières proposées dans ces cursus. Elle sera impliquée dans l’organisation pédagogique des formations, en coordination avec les responsables de diplômes. Les offres de formation du BSc Computer Science et du MSc DSAI sont disponibles dans le document ci-joint. Langue d’Enseignement : Anglais Intitulé du profil Recherche : Intelligence Artificielle Pour renforcer le département de recherche en informatique, l’UFAZ ouvre un poste de maître de conférences contractuel en informatique. La personne recrutée devra être qualifiée en section 27 du CNU. Elle devra proposer un projet d’intégration en recherche dans l’un de ces trois axes : Algorithmes évolutionnaires, Apprentissage automatique et Fouille de données ou Graphes de connaissances et sémantique. Une description détaillée de chaque axe peut être consultée sur le site web du département de recherche : https://cs.research.ufaz.az La personne recrutée devra contribuer activement à la vie de la communauté scientifique. Au niveau local, elle sera force de proposition à l’intérieur des équipes de recherche, proposera de nouvelles interactions ou renforcera les liens existants entre équipes. Au niveau national ou international, elle sera moteur pour la mise en place de projets scientifiques. Son rôle sera également de suivre et développer les interactions émergentes entre l’industrie et le département recherche. Profil du candidat : Formation et compétences requises : Il sera très apprécié si le candidat possède les compétences suivantes ● managériales et organisationnelles permettant de superviser les enseignants locaux et de maintenir une communication efficace avec les professeurs invités, l’équipe de l’Université de Strasbourg (Unistra) et la direction de l’UFAZ. ● en matière d’administration universitaire, comprenant l’élaboration des programmes d’études et leur évaluation ● d’adaptation dans un environnement multi-culturel et inter-disciplinaire ● linguistiques avec la nécessité de posséder un niveau d’anglais B2 au minimum. Adresse d’emploi : Université Franco-Azerbaidjanaise (UFAZ) à Bakou (Azerbaidjan) Document attaché : 202506231433_[MI] fiche de poste contractuel_Math-Info UFAZ 2025.pdf Jul 15 Tue 2025 Offre en lien avec l’Action/le Réseau : SimpleText/– — – Laboratoire/Entreprise : HCTI, University of Brest, France Durée : 12 months Contact : liana.ermakova@univ-brest.fr Date limite de publication : 2025-07-15 Contexte : ANR JCJC SimpleText project: Automatic Simplification of Scientific Texts (https://anr.fr/Projet-ANR-22-CE23-0019) in partnership with the University of Amsterdam Application If you feel the profile fits you, and you are interested in the job, we look forward to receiving your application. Job applications should be sent to liana.ermakova@univ-brest.fr. We accept applications until and including 13 July 2025. Applications should include the following information: – A detailed CV including the months (not just years) when referring to your education and work experience; – A letter of motivation explaining how the project is related to your research background; – A list of publications (in case of joint authorship, please clearly indicate your own contribution); – The thesis; – The names, affiliations, and email addresses of two academic referees who can provide details about your academic profile in relation to this position (please do not include any reference letters in your application). Sujet : We seek an ambitious and highly talented postdoc to work on the interface of information retrieval (IR) and natural language processing (NLP) models applied to large-scale scientific text corpora. The recruited person will work as part of the ANR JCJC SimpleText project: Automatic Simplification of Scientific Texts (https://anr.fr/Projet-ANR-22-CE23-0019) in partnership with the University of Amsterdam. Our project aims to develop effective and efficient IR and NLP technology for promoting scientific information access and to support non-professionals searching for scientific information in academic literature. Specifically, we deploy large language and foundation models for the RAG (retrieval augmented generation) setup in the context of text simplification. There is considerable flexibility to shape the project to emerging research opportunities and the background and interests of the candidate. Profil du candidat : The candidate should have a PhD in AI/NLP/IR and a strong motivation for the project topic. Formation et compétences requises : Adresse d’emploi : HCTI, University of Brest 20 rue Duquesne 29200 Brest France Sep 1 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IMT Mines Alès (Ecole Nationale Supérieur des Mine Durée : CDI Contact : guyot@irit.fr Date limite de publication : 2025-09-01 Contexte : Sujet : Maître de Conférences en Apprentissage Machine et Contrôle de systèmes complexes Profil du candidat : Formation et compétences requises : Adresse d’emploi : IMT Mines Alès (Ecole Nationale Supérieur des Mines d’Alès) Document attaché : 202409050837_fp_-_mdc_ceris_ia_et_ingenierie_fr-2.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Brain-C Lab, Institute of Biology Paris-Seine (IBP Durée : 12 months Contact : lucile.megret@sorbonne-universite.fr Date limite de publication : 2025-09-01 Contexte : Sujet : Project: A 12 months position is immediately available in the Brain-C Lab in Paris for a bioinformatician at the Study Engineer (IE) level (post-master position). The selected candidate will work with a team of mathematicians, bioinformaticians, and neurobiologists on modeling time- and cell-resolved omics data to built computational models of molecular pathogenesis in neurodegenerative diseases such as amyotrophic lateral sclerosis (ALS), integrate data from other diseases such as Huntington’s disease (HD) and disseminate data via online platforms. The selected candidate will use BioGemix, our post-omics machine learning platform and related databases. This position is a unique opportunity to further develop expertise and skills in a multidisciplinary team and network of direct collaborators that cover systems modeling, database development, and cellular neurobiology for breakthrough in neurodegenerative disease research. Profil du candidat : Profile: The candidates should hold a Master in Biofinformatic or a Master in Informatics and they should have no more than 3-4 years of post-master experience. The position is full time, on site, and candidates should have strong collaborative skills and commitment to team work along with strong ability to work independently in addition to strong interest for research. Formation et compétences requises : • Training and required skills: Experience working with NGS data and performing respective bioinformatic pipelines in order to process sequencing data. • Programming autonomy on at least one of the following languages: python, R, C / C ++. • Good knowledge of basic web technologies: PHP, MySQL, JavaScript, jQuery. • Fluency on Ubuntu. • Hands-on experience with in house server maintenance (Backup, shared space, and webserver). • Scientific English essential • Skills in data visualization will be a plus. • Basic knowledge in statistics and machine learning are desirable but not mandatory. Adresse d’emploi : 7 quai Saint Bernard 75005 Paris Document attaché : 202506271149_Annonce_bioinfo_IE.pdf Sep 26 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Toulouse INP : ENSEEIHT/IRIT ou AgroToulouse/Dynaf Durée : 3 à 5 ans Contact : nicolas.dobigeon@enseeiht.fr Date limite de publication : 2025-09-26 Contexte : Sujet : Une chaire de professeur junior (CPJ) est ouverte au recrutement à Toulouse INP sur le thème de la “modélisation et apprentissage automatique pour l’agroécologie” (IA, modélisation, télédétection, agronomie…). Selon le profil du lauréat ou de la lauréate, deux rattachements sont possibles : – à l’INP-AgroToulouse (enseignement) et à l’UMR DYNAFOR (recherche) – à l’INP-ENSEEIHT (enseignement) et à l’UMR IRIT (recherche) Quel que soit le rattachement, l’objectif est que la personne contribue à créer de la synergie entre les deux écoles et les laboratoires, dans le cadre de la création d’une nouvelle formation transversale associée. Les candidatures sont ouvertes jusqu’au au vendredi 22 août 2025 à 16h00 (heure de Paris) sur la plateforme ODYSSEE : https://odyssee.enseignementsup-recherche.gouv.fr/ Voir les instructions ici : https://www.galaxie.enseignementsup-recherche.gouv.fr/ensup/cand_recrutement_enseignants_chercheurs_Odyssee.htm Des détails concernant le contexte et les objectifs de cette chaire sont disponibles sur l’appel à candidature : https://www.inp-toulouse.fr/_attachment/campagnes-de-recrutement-enseignants-chercheurs-accordeon/Profil%202025_CPJ%20Mod%C3%A9lisation%20et%20apprentissage%20automatique%20pour%20l’agro%C3%A9cologie.pdf?download=true Profil du candidat : Au terme de la période de 5 ans maximum, une titularisation dans le corps des Professeurs des Universités sera envisagée. Cette chaire est donc adaptée à des personnes ayant déjà 3 à 5 ans d’expérience après la thèse et dont le dynamisme permettrait de prétendre à un poste de Professeur à la fin d’une période de 5 ans, en supposant l’HDR soutenue. Elle est aussi ouverte à des personnes déjà titulaires de l’HDR. Dans ce cas, en fonction de l’expérience, la durée de la chaire pourrait être réduite à 3 ans avant une possible titularisation. Formation et compétences requises : La thématique de la chaire est large et peut correspondre à des personnes venant du monde des sciences des données et du traitement des images, intéressées par l’agroécologie spatialisée comme domaine d’application privilégié. Elle s’adresse aussi à des agronomes / agroécologues ayant une bonne expérience en modélisation (statistique, mécaniste) spatialisée. Adresse d’emploi : Toulouse INP Document attaché : 202507100908_Profil 2025_CPJ Modélisation et apprentissage automatique pour l’agroécologie.pdf Sep 30 Tue 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : CReSTIC / Institut Godinot / Siemens Durée : 24 mois Contact : Agnes.Delahaies@univ-reims.fr Date limite de publication : 2025-09-30 Contexte : Sujet : https://crestic.univ-reims.fr/uploads/emplois/Siemens_Post_Doc.pdf Profil du candidat : Formation et compétences requises : Adresse d’emploi : Université de Reims Champagne-Ardenne (Reims, Troyes) Document attaché : 202505161710_Siemens_Post_Doc.pdf Oct 1 Wed 2025 Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : ETIS/CY Paris Cergy Université Durée : 18 months Contact : aikaterini.tzompanaki@cyu.fr Date limite de publication : 2025-10-01 Contexte : The position is funded by the prestigious EU Horizon PANDORA project, A Comprehensive Framework enabling the Delivery of Trustworthy Datasets for Efficient AIoT Operation. The main goal of the project is to contribute towards the creation of a dynamic AI pipeline in the context of IoT applications, focusing on i) the creation of synthetic but trustworthy data, and ii) on the development of AI algorithms for various tasks (from classic classification, regression and anomaly detection, to forecasting and predictive maintenance) taking into account the specific data characteristics of continuous data generation settings and leveraging the domain knowledge when available. Explainability is a fundamental property for rendering the systems reliable, as it can help i) enhance the acceptability of the system by the system experts and further aid in decision making, ii) optimize model performance (time and accuracy) by revealing the actual causes behind predictions, and iii) repair data acquisition processes or model training/updating by exposing errors and/or drifts that may arise through time. The project gathers over 20 academic and industrial partners, with real and challenging use-cases and thus provides a unique opportunity to contribute to cutting-edge research with significant real-world impact. Sujet : Subject: Predictive maintenance (PDM) in industrial settings spans from identifying anomalies and categorizing failures in already observed data, to prognostically predicting the Remaining Useful Life (RUL) and the Failure Time (FT) of machines, appliances, etc., in the future. Typically such predictive tasks are implemented using Deep Learning and/or statistical analysis techniques, which may be complex to interpret, while their performance is challenged by multiple sources of errors (sensors’ tuning, aging, failures, etc.) and the non-stationary nature of IoT data streams. In particular, concept drifts can originate from the changes in the underlying data generation mechanism that reflects different states of the monitored system. In this context, the predictive performance of already trained models f(X,Y) (e.g., classification, regression) may start degrading after a certain point in time and hence models need to be adapted at the right frequency. However, not all types of changes in the joint probability distribution P(X,Y) have the same impact on model performance. In this respect, we need to distinguish between changes in the posterior probability distribution P(Y|X) (i.e., Model drifts) between input features X and the target variable Y, from class-conditioned data distribution changes P(X|Y) (i.e., likelihood drifts) and changes in the distribution of input features P(X) (i.e., covariate drifts). Clearly, not all types of changes of the joint probability distribution $P(X, y)$ influence predictive models in the same way and hence, they require different mitigation actions. In this project we are particularly interested in how data quality and concept drifts affect the performance of PDM tasks such RUL and FT. Moreover, besides developing performant, robust, and stable FT and RUL prediction algorithms through time, we are also interested in enhancing interpretability of their results. On the one hand, engineers need to know the root causes for a predicted machine failure at a time t in the future, so that they may take the best possible action towards preventing the failure to happen, or replace a machine in time before having to take the system down for replacement of the compromised machine. Such explanations should cover both the time parameter (why a failure will happen after a time interval) and the type of failure (why a specific type of error will happen). On the other hand, fine-grained explanations of the different types of concept drifts can guide data analysts to take timely, and informed actions for adapting the prediction algorithm to the observed concept drift. While explainability has been a major research interest in recent years, explanation methods for concept drift are still in their infancy. Some of the approaches aim for the detection and quantification of drift, its localization in space or its visualization, while others focus on feature-wise representations of drift. In this project, we aim to investigate actionable concept drift explanations, adding in the equation weak and strong signals for failure events. We believe that concept drift explanations constitute a form of actionable explanations responding to both aforementioned expert needs, and thus can be more valuable than standard feature importance explanations. Profil du candidat : Responsibilities/Opportunities Conduct high quality research in Explainable AI in non-stationary settings. Develop novel algorithms and methodologies for Predictive Maintenance using IoT streams. Publish in top-tier conferences and journals. Collaborate with an interdisciplinary team of researchers and industry partners. Participate in project meetings and contribute to the project’s management. Formation et compétences requises : PhD in Machine Learning, AI, Data Science, Statistics, or a related field. Strong background in at least one of the following: deep learning, continual learning, time series analysis, or predictive maintenance. Experience with explainable AI (XAI) methods. Proficiency in Python and relevant ML frameworks (PyTorch, TensorFlow, Scikit-learn). Excellent publication record in Data management, Artificial Intelligence, Machine Learning, or IoT applications. Adresse d’emploi : Equipe DATA&AI – ETIS Laboratory, CY Cergy Paris Université 33 Bd du Port, 95000 Cergy Document attaché : 202503241752_Post-Doc Position in Explainable AI in Industrial Settings_DATAIA_PARIS.pdf Oct 2 Thu 2025 Offre en lien avec l’Action/le Réseau : DatAstro/– — – Laboratoire/Entreprise : LISN Durée : 3 à 5 ans Contact : cyril.furtlehner@inria.fr Date limite de publication : 2025-10-02 Contexte : Le département d’informatique de l’Université Paris-Saclay annonce l’ouverture d’une Chaire de Professeur Junior rattachée au laboratoire LISN, dans le domaine interdisciplinaire de l’apprentissage automatique et de la physique, à partir de décembre 2025 (voir détails : https://team.inria.fr/tau2/files/2025/09/CPJ.pdf). Cette CPJ correspond à un poste de type tenure-track, assorti d’un financement de démarrage d’environ 200 k€ et d’un service d’enseignement réduit (64h/an) pendant les premières années, normalement suivi d’une titularisation comme professeur des universités. La date limite de candidature est le 2 octobre. Dépôt des candidatures via : https://odyssee.enseignementsup-recherche.gouv.fr/procedures/recrutement-ec/offres-poste/fiche-offre-poste/253200. Pour toute question scientifique ou générale, merci de contacter Cyril Furtlehner et Guillaume Charpiat (cyril.furtlehner@inria.fr, guillaume.charpiat@inria.fr), et pour les aspects pédagogiques Lila Boukhatem (lila.boukhatem@universite-paris-saclay.fr). Sujet : L’intelligence artificielle est au cœur de la stratégie de l’Université Paris-Saclay. Le couplage entre IA, mathématiques appliquées et physique constitue un domaine stratégique, avec des applications allant du climat (modélisation spatio-temporelle, enrichissement de données) à la santé (médecine personnalisée, modélisation d’organes). Le thème du projet illustre la synergie entre les départements de mécanique numérique, d’apprentissage et de science des données du LISN, et s’inscrit dans les axes portés par DATAIA et le clusterIA via les chaires modulaires. Certains axes s’inscrivent dans des initiatives internationales pluridisciplinaires entre physique et informatique, comme la Simons Collaboration on Cracking the Glass Problem (https://scglass.uchicago.edu/). Le projet PhyML est aligné sur les priorités du LISN : – Projet multidisciplinaire à l’interface entre apprentissage, science des données, simulation et mécanique ; – Fort ancrage dans l’écosystème local, avec des collaborations structurées : projet ML4CFD (Machine Learning for Computational Fluid Dynamics, coll. IFPEN), projet HSA (Hybridation Simulation Apprentissage, IRT-SystemX) et thèse CD-ROM (Complementary Deep – Reduced Order Model), projet ANR SPEED (Simulating Physical PDEs Efficiently with Deep Learning, coord. Lionel Mathelin), ainsi que la start-up fondée par deux doctorants de l’équipe A&O (M. Nastorg et E. Meunier). Par ailleurs, l’interface entre IA et physique constitue un des axes de DataIA, centré sur les liens entre IA, systèmes complexes et physique statistique, soutenu par les possibilités de financement du ClusterIA. Profil du candidat : **Résumé du projet** L’objectif est de développer des interactions fécondes entre physique et apprentissage automatique. – Premier axe : AI4Science (SciML), en développant des méthodes d’apprentissage pour mieux simuler ou comprendre des phénomènes physiques. Cela inclut l’intégration de connaissances physiques (invariances, symétries et bris de symétrie, propriétés désirées, métriques entre systèmes dynamiques, PINNs, etc.) dans les tâches d’apprentissage. On peut concevoir pour cela des architectures neuronales et méthodes d’optimisation adaptées (graph-NN, transformers, schémas de discrétisation, NeuralODEs, modèles multi-échelles, génératifs, réseaux neuronaux group-equivariant, …). Le couplage entre simulation et apprentissage, dans un contexte riche en données, ouvre des perspectives majeures (accélération, stabilisation des simulations, résolution de problèmes inverses). – Deuxième axe : exploiter des concepts de physique théorique (ou mathématique) pour explorer les propriétés fondamentales de l’apprentissage automatique, par exemple la scalabilité (neural scaling laws) ou la dynamique d’entraînement, en particulier en haute dimension. Cela peut impliquer des outils classiques (théorie des matrices aléatoires, méthodes de répliques), ou des concepts plus récents spécifiques au ML (neural tangent kernel, régime de « lazy training »). On pourra explorer la dynamique au-delà du lazy regime, les régimes hors équilibre des Energy-Based Models via la dynamical mean field theory, ou encore les compromis confidentialité–utilité avec des modèles analytiques. Des concepts issus d’autres domaines de la physique ou des mathématiques appliquées peuvent aussi être pertinents, comme l’ont montré les processus de diffusion à la base des modèles génératifs. De manière générale, nous recherchons des profils à l’interface Physique/ML, aussi bien du côté ML4Physics que Physics4ML. Formation et compétences requises : Adresse d’emploi : LISN Université Paris-Saclay 1 rue René Thom 91190 Gif-sur-Yvette Document attaché : 202509091622_CPJ.pdf Oct 15 Wed 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire Informatique et Société Numérique – LS Durée : PU Contact : lionel.amodeo@utt.fr Date limite de publication : 2025-10-15 Contexte : L’Université de Technologie de Troyes (UTT) recrute un·e Professeur·e des Universités dans le domaine de l’Intelligence Artificielle et du Traitement statistique du signal et des images. Profil scientifique attendu : Section CNU: 26ème/27ème/61ème Fondements statistiques de l’IA Robustesse, explicabilité Décision statistique sous incertitude Recherche : Le poste est rattaché à l’axe MSAD – Modélisation Stochastique, Apprentissage et Décision de notre UR LIST3N. Enseignement : Programmes Ingénieurs et Masters Mastère Spécialisé® Big Data Engineer Nouveau Bachelor en Intelligence Artificielle (en partenariat avec le cluster Hi! PARIS). Projets structurants associés : Cluster Hi! PARIS – AI for Science, Business & Society Programme PEA Impact Université de Technologie Européenne EUt+ Prise de fonction : 1er janvier 2026 à Troyes Détails et dépôt de candidature : https://www.utt.fr/carrieres-emplois/poste-d-enseignant-chercheur Référence : Poste n° 253213 (ODYSSEE) Sujet : La recherche, la formation et le transfert de technologie sont les trois missions de l’Université de Technologie de Troyes (UTT). Établissement à la fois École d’Ingénieurs et Université, l’UTT est aujourd’hui parmi les 10 écoles d’ingénieurs les plus importantes en France, avec un rayonnement à l’international reconnu. Elle forme plus de 3100 étudiants chaque année, de post-bac à bac+8. Ses formations conjuguent excellence et innovation et sont adossées à une recherche de pointe. En effet l’UTT s’appuie sur ses 5 unités de recherche pour proposer des formations couvrant tout le spectre universitaire : Licence, Master, Ingénieur et Doctorat, des formations courtes professionnalisantes (Diplômes d’Université), des programmes de Mastère spécialisé®, de la VAE et des certifications en langues. Ces formations apportent aux diplômés de l’UTT les compétences recherchées par les entreprises grâce à une forte proximité avec celles-ci, notamment au travers de sa fondation. Le parcours d’ingénieur en 5 ans, habilité par la CTI, se singularise dans le paysage académique par des parcours individualisés dès la première année, ce qui permet à chaque étudiant d’adapter sa formation à son projet professionnel. Profil du candidat : Pour ce poste de Professeur des Universités un investissement équilibré entre les activités de formation, de recherche et un engagement au sein de l’UTT est attendu. La participation à la dynamique de projet font partie des missions. Enseignement : La personne recrutée interviendra principalement dans les enseignements en Bachelor IA et Mastère Spécialisé® Expert Big Data Engineer, en particulier ceux liés à l’intelligence artificielle et la Data. En complément, elle participera aux enseignements du Tronc Commun de l’UTT et en formation Génie industriel dans les domaines des probabilités et des statistiques, sous forme de cours, TD et TP. Elle prendra part à l’encadrement de projets et au suivi pédagogique des étudiants, notamment en apprentissage. La personne recrutée sera amenée à assumer par ailleurs des responsabilités dans la mise en oeuvre du nouveau Bachelor en IA qui ouvre à l’UTT en 2025, en partenariat avec IPParis, HEC, CNRS, INRIA au sein du cluster à vocation mondiale Hi !Paris. Une implication dans les tâches collectives de l’établissement ainsi qu’un engagement soutenu dans l’accompagnement des étudiants en alternance sont attendus. Recherche : L’Axe Modélisation Stochastique, Apprentissage et Décision (MSAD) mène des travaux reconnus en modélisation probabiliste, estimation, inférence et apprentissage statistique, qui contribuent à la visibilité scientifique du laboratoire LIST3N aux niveaux national et international (cf. Rapport HCERES 2023). Le renforcement de cette expertise par le recrutement d’un PU s’inscrit dans la stratégie de l’axe, qui vise à structurer une activité de recherche sur les fondements statistiques de l’IA, en lien avec la robustesse, la généralisation et la décision sous incertitude. Ce besoin se justifie d’autant plus que de nombreux travaux de l’Unité de Recherche LIST3N s’appuient sur des cas d’usage critiques (santé, cybersécurité, infrastructures vitales, maintenance industrielle), dans lesquels la maîtrise des outils statistiques est essentielle pour garantir la fiabilité, l’interprétabilité et la transférabilité des modèles d’IA. Dans une logique de rayonnement institutionnel, elle sera également appelée à travailler pour l’UTT au sein du cluster Hi!Paris, consortium interdisciplinaire de référence dans les domaines de l’intelligence artificielle et des sciences des données. À ce titre, elle contribuera à représenter la stratégie scientifique de l’UTT dans ce cadre partenarial, du cluster. Cette mission de représentation s’inscrira dans la stratégie globale de l’établissement visant à renforcer sa visibilité et son positionnement sur les enjeux liés à l’IA de confiance, à la modélisation sous incertitude et à la décision explicable. Le poste proposé correspond à un besoin prioritaire de l’axe « Modélisation stochastique, apprentissage et décision » (MSAD) du Laboratoire Informatique et Société́ Numérique (LIST3N). Les travaux de recherche menés au sein de cet axe visent à concevoir des modèles mathématiques innovants, des algorithmes de traitement des données ainsi que des outils d’aide à la décision. Ils reposent sur un socle disciplinaire commun englobant la modélisation stochastique, les méthodes statistiques, les techniques non paramétriques issues de l’apprentissage automatique (Machine Learning et Deep Learning) et l’Intelligence Artificielle (IA), ainsi que la conception de décisions robustes, qu’elles soient distribuées ou collaboratives. Outre les travaux théoriques et méthodologiques, elle doit être capable de porter des projets collaboratifs structurants institutionnels comme industriels au niveau national (CIFRE, Région, ANR) et européen, notamment dans le cadre de l’Université Européenne de Technologie (Eut+). Il est attendu de la personne recrutée de jouer un rôle de premier plan dans la thématique du traitement du signal et plus généralement de l’IA avec une composante d’animation et de coordination de projets structurants (existants ou à venir) au sein de l’établissement : • Pilotage du programme PEA Impact (3 partenaires – UTBM, IMT Albi et Université de Lomé) incluant les volets recherche (10 thèses en cotutelle France/Togo et formation de niveaux Licence et Master), • Coordination des activités de l’UTT dans le cadre du cluster Hi! PARIS (IP Paris, HEC Paris, Inria Saclay), • Coordination du Mastère spécialisé Expert Big Data Engineer et du Bachelor en Intelligence Artificielle. Ce poste s’inscrit dans la volonté du LIST3N de préserver son rayonnement dans un domaine directement en lien avec l’ambition n°3 du plan stratégique UTT 2035. Formation et compétences requises : Compétences souhaitées : ▪ Pédagogue ; ▪ Capacité à mener une recherche d’excellence ; ▪ Motivation, travail collaboratif et gestion de groupe ; ▪ Capacité à inscrire des notions fondamentales dans un cadre industriel ou dans une dimension d’ingénierie au sens large ; ▪ Capacité à enseigner en Anglais. Adresse d’emploi : Université de Technologie de Troyes, 12 rue Marie Curie à Troyes LIST3N Contacts: Dossier de candidature : recrutement-list3n@utt.fr Information concernant la recherche : Lionel.amodeo@utt.fr Information concernant l’enseignement : faicel.hnaien@utt.fr Document attaché : 202509161941_DRH25_08_PU-Approches Statistiques_IA-VF (1).pdf Oct 31 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : ISEN Yncrea Ouest Nantes Durée : 18 mois Contact : sylvain.lefebvre@isen-ouest.yncrea.fr Date limite de publication : 2025-10-31 Contexte : Ce contrat se déroule dans le cadre d’une chaire industrielle créée en 2021 entre l’entreprise ACOME, leader européen dans la création des câbles et le L@bISEN, le laboratoire de recherche de l’Institut Supérieur de l’Electronique et du Numérique (ISEN). Ce travail va être effectué par un(e) post-doctorant(e) ou un(e) ingénieur(e) de recherche, sur une période de de 12 mois, encadré(e) par un enseignant-chercheur de l’ISEN Ouest. Plus largement, la personne recrutée bénéficiera du soutien technique de l’équipe de recherche, équipe composée de 5 E/C et 2 ingénieurs. Sujet : En 2019 l’industrie manufacturière était responsable de 19% des déchets non dangereux produits chaque année [1]. A l’ère de la numérisation massive de l’industrie et du développement des technologies d’intelligence artificielle, la mise en place de systèmes et procédures permettant d’automatiser la détection et la correction des défauts de production promet d’impacter significativement les quantités rejetées lors de la production. La fabrication des câbles combine plusieurs activités complexes de production effectuées par différentes machines dans plusieurs ateliers. L’activité de production de l’entreprise concerne principalement la production de câbles pour différents secteurs industriels et notamment pour le secteur automobile. Il s’agit donc de fabrication de produits en long. Les procédés de fabrication pour ce genre de produits impliquent des flots continus de matières circulant dans et entre les machines. Des changements d’ordre de fabrication, des défauts de qualité des matières premières ou des conditions de production particulières produisent par exemple des produits ne pouvant être commercialisés qui sont alors des sources de coût pour l’entreprise et ont impact environnemental négatif. Il y a donc un besoin de fournir un outil d’analyse intelligent de plusieurs sources de données sur l’ensemble du processus de production, qui puisse recommander automatiquement aux ingénieurs qualité les paramètres optimaux pour minimiser les déchets. ACOME et les équipes de l’ISEN ont donc développé un lac de données rassemblant les informations de production et de qualité lors des phases antérieures du projet. L’analyse de ces données est en cours et permettra de faire émerger des recommandations et des outils de suivis appropriés pour les équipes qualité d’ACOME. Le post doctorant interviendra donc dans le développement de ces outils d’analyse, ce qui pourrait nécessiter la conception de nouvelles approches de recherche, comme : l’analyse de journaux existants et d’identification automatiques des éléments pouvant amener à générer des déchets [1], le développement de méthodes prédictives (IA, Apprentissage Automatique et Profond) pour l’estimation des quantités de déchets. D’autres approches peuvent utiliser des jumeaux numériques [2, 4] et l’apprentissage par renforcement pour virtuellement reproduire les conditions de l’usine et analyser l’impact des variations des paramètres de production. Enfin, les approches visant à optimiser l’ordonnancement des tâches, c’est-à-dire la planification des activités de production, dans le but de minimiser la quantité de déchets produits pourront être explorées [3]. Références : [1] Duong, L. T., Trave-Massuyes, L., Subias, A., & Roa, N. B. (2021). Assessing product quality from the production process logs. The International Journal of Advanced Manufacturing Technology, 117, 1615-1631. [2] Howard, D. A., Ma, Z., & Jørgensen, B. N. (2021). Digital Twin Framework for Industrial Production Processes. Energy Informatics, 4(Suppl. 1), P9. [3] Le Hesran, C., Ladier, A. L., Botta-Genoulaz, V., & Laforest, V. (2019). Operations scheduling for waste minimization: A review. Journal of cleaner production, 206, 211-226. [4] Botín-Sanabria, D. M., Mihaita, A. S., Peimbert-García, R. E., Ramírez-Moreno, M. A., Ramírez-Mendoza, R. A., & Lozoya-Santos, J. D. J. (2022). Digital twin technology challenges and applications: A comprehensive review. Remote Sensing, 14(6), 1335. Profil du candidat : Le candidat devra montrer une solide expertise dans un ou plusieurs des domaines suivants : – Avoir des prérequis solides en : IA, Statistique, Big Data Analysis, Big Data Science, Machine Learning, Deep Learning, etc. – Excellente compétence en programmation orientée-objet (Python ou Java, etc.) – Avoir une expérience dans la proposition, développement, test des modèles de statistique inférentielle, de corrélation, de régression, de classification ou de clustering, – Maitriser le Français et l’Anglais, – Mener des recherches de haut-niveau et publier des articles scientifiques dans des conférences et des revues internationales à comité de lecture. Formation et compétences requises : Expériences appréciables : – Une expérience industrielle, – Connaissance du SQL. Adresse d’emploi : ISEN Ouest – Campus de Nantes 33 QUATER Av. du Champ de Manœuvre, 44470 Carquefou Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LISIC – Université du Littoral Durée : 1 year Contact : esteban.bautista-ruiz@lip6.fr Date limite de publication : 2025-10-31 Contexte : The Industrial Internet of Things (IIoT) is a rapidly evolving paradigm in which industrial sensors, machines, and other instruments are connected to the internet. The data provided by these systems are of great value for automated surveillance and detecting anomalies in them is therefore a task of utmost importance. Temporal graphs are a very effective model for IIoT data, where nodes represent devices; node features represent their measurements; and time-varying weighted edges capture various types of information. In the initial phase of this project, we have already developed powerful auto-encoder models capable of detecting both temporal and structural anomalies in temporal graphs. Yet, while our models allow us to detect the presence of an anomaly, they are still unable to localise it. The main goal of this postdoctoral project is therefore to fundamentally extend our temporal graph auto-encoder models beyond anomaly detection to also perform anomaly localization. Sujet : The recruited postdoc will have two main goals: 1. Extension of Auto-Encoders for Anomaly Localization. Our models currently receive a temporal graph as input and produce an anomaly score that is proportional to the severity of its abnormal events. Even though they can be used to localize anomalies by searching for the subset of maximal anomaly score, such an approach is impractical due to the exponential number of subsets to test. We aim to prune-down the search space by properly structuring the auto-encoder’s latent representation. This will require substantial architectural innovation to disentangle the auto-encoder’s structured representation and achieve fine-grained anomaly localization. 2. Application to IIoT logs and measurements. We aim to evaluate the methodological developments above in real-world IIoT dataset that contain various types of attacks (structural anomalies) and measurement faults (feature anomalies). We aim to explore the advantages of our approach in real-world, potentially on-line, scenarios, such as machine health monitoring, transportation network monitoring, or other use cases that may arise from collaborations with local companies. Profil du candidat : We look for highly motivated candidates with relevant experience in anomaly detection, graph machine learning, and/or deep learning. Experience in Python programming, cybersecurity and/or streaming algorithms is a plus. Ideal candidates will have a publication record in selective AI conferences. Interested candidates are invited to send a cover letter, a detailed CV (with a publication list and the contact details of two references), and their PhD manuscript or a recent paper to: – esteban.bautista@univ-littoral.fr – claire.guilloteau@univ-littoral.fr Applications will be reviewed on a rolling basis until the position is filled. Formation et compétences requises : Adresse d’emploi : Saint-Omer, France Document attaché : 202509011756_Postdoc___Temporal_Graph_Auto_Encoders____Job_Offer.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IMT Atlantique – Lab-STICC Durée : 2 years Contact : lucas.drumetz@imt-atlantique.fr Date limite de publication : 2025-10-31 Contexte : IMT Atlantique is looking for a postdoctoral fellow for 2 years starting as soon as possible before December 2025. The position is based on the Brest campus of the school. The fellow will join the Mathematical and Engineering Department of IMT Atlantique, and conduct his research wihtin the Odyssey Team Project studying Ocean Dynamics using data driven approaches, namely ML and AI techniques. The project is a collaboration with the Laboratoire d’Océanographie Physique et Spatiale (LOPS) of Univ. Brest. Covering more than 70 % of the surface of the Earth, the oceans play key roles for the regulation of the Earth climate (e.g., climate change) as well as for human societies (e.g., marine resources and maritime activities). Despite ever-increasing development of simulation and observation capabilities leading to ocean big data, our ability to understand, reconstruct and forecast ocean dynamics remains limited. Altimetry data and other geophysical measurements allow an improved understanding of ocean dynamics thanks to the various types of data acquired at the surface and inside of the ocean by different in situ sensors and satellite missions. A large number of different sensors exist, ranging from in situ floats to satellite data. However, even with all these acquisitions, the observation coverage of the 3D ocean remains very sparse, making prediction tasks challenging. In such a setting, it is also crucial to be able to produce uncertainties associated to the predictions, or even propose different evolution scenarios in ambiguous configurations. Sujet : In this context, a national initiative within the Programme Prioritaire de Recherche (PPR) Océan et Climat aims at building data challenges centered around the exploitation of such datasets, and easy benchmarking of AI-based solutions [1]. One of those challenges to be launched by the end of 2025 will be centered around the probabilistic short term forecasting of oceanic variables at the global scale in the 3D ocean from sparse measurements. AI-based methods for this type of problems are starting to emerge but are not so mature as e.g. in weather forecasting, and in particular are usually deterministic [2, 3]. Thus, the objective of this postdoctoral project is to develop new AI native models to learn and propagate ocean dynamics, with an emphasis on: • Handling incomplete and noisy data • A probabilistic formulation of the problem, i.e. not just learning a mean value over space and time of the parameters of interest, but also to generate and propagate uncertainties in the relevant oceanic variables over space in time. • A method that scales to global oceanic states (≈ 10 6 variables or more) To this end, we propose to merge Gaussian Process (GP) regression [4], which is the basis of most operational techniques for sparse oceanic data interpolation and forecast (Optimal Interpolation) and Machine Deep Learning techniques. These kernel-based methods take advantage of the closed form Gaussian solution of the GP providing uncertainties at little cost. Despite these appealing properties, their performance has been modest because of limited expressivity due to ad-hoc choices of rigid kernels and associated parameters. We propose to enhance this class of probabilistic methods by leveraging flexible AI-based hyperparameterizations of these kernel methods to train data-driven priors for interpolation/forecasting from complete (e.g. simulation) data. Profil du candidat : The candidate should hold a PhD in signal or image processing, machine learning, remote sensing or related fields. We are looking for strong candidates with the following skills: • Machine/Deep learning, signal and image processing, applied mathematics, numerical methods • Programming in Python (Numpy, scipy, matplotlib…), especially Pytorch • Inverse problems in imaging, Bayesian Modeling, Kernel Methods • Curiosity for or experience in applications to quantitative oceanography will be appreciated. Formation et compétences requises : PhD in applied math/machine learning/image or signal processing Adresse d’emploi : IMT Atlantique Technopôle Brest-Iroise CS 83818 29238 Brest Cedex 3 Document attaché : 202506161220_postdoc_ppr_ocean_climat_fiche.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire Informatique Image Interaction – La Ro Durée : 24 mois Contact : marine.gonse@univ-lr.fr Date limite de publication : 2025-10-31 Contexte : Coastal ecosystems are highly productive and host essential habitats for numerous marine species, including feeding areas, nurseries, breeding grounds, and migratory corridors. The quality of these habitats determines the renewal and dynamics of marine populations and, more broadly, the productivity of coastal ecosystems. However, these ecosystems are increasingly and durably impacted by the cumulative effects of climate change (e.g., rising temperatures, acidification, stratification of the water column) and by expanding human activities in coastal zones (e.g., maritime traffic, fishing, marine aggregate extraction, pollution, and offshore wind farms). Given the rapid intensification of these anthropogenic disturbances, it becomes essential to facilitate dialogue between stakeholders (public authorities, scientists, managers, conservationists, and socio-economic actors) to foster the sustainable development of maritime activities and the protection of marine ecosystems. Effective ecosystem management requires decision-support systems capable of guiding spatial planning and conservation strategies. Digital twins represent an innovative approach to these challenges. They rely on continuous coupling between a real system and its virtual representation. The real system, informed by collected data, feeds the model, which can then refine its predictions, simulate alternative scenarios, and provide proactive decision-support tools. In ecology, the development of such systems remains limited due to their complexity and necessitates close collaboration between computer scientists and biologists. In the marine environment, animal movement monitoring is enabled by biologging, which involves equipping animals with electronic devices that continuously record data (e.g., satellite positions, diving profiles, three-dimensional acceleration, oceanographic variables, physiological parameters). These datasets provide insights into animal movements and their responses to environmental conditions. The miniaturization of these devices has increased both the volume and diversity of data collected, generating analytical challenges that require strong interdisciplinary collaboration. The aim of this project is to develop a digital twin for monitoring coastal marine populations by integrating biologging data into a digital platform (Urban Coastal Lab La Rochelle, UCLR) to understand and predict spatiotemporal variations in habitat use by marine animals in human-impacted coastal environments. Advanced simulation tools based on artificial intelligence will be developed. The project will focus on the case study of the grey seal (Halichoerus grypus), for which long-term monitoring has been conducted in the English Channel and the Iroise Sea by La Rochelle University (Pelagis/CEBC). Habitat loss due to climate change or anthropogenic activities (e.g. fisheries, maritime traffic) may directly affect grey seal population dynamics by altering foraging efficiency, movement patterns, reproductive success, or pup survival. The digital twin developed as part of this postdoctoral project will allow exploration of grey seal responses to such disturbances and assessment of the consequences of various future scenarios. Sujet : The postdoctoral researcher will be responsible for developing the simulation infrastructure of the digital twin. As biologging data are multimodal (differing in nature and acquisition frequencies), advanced methods based on artificial intelligence are required. Specifically, the researcher will: 1. Contextualize movement data with environmental variables (marine and potentially terrestrial) to simulate “possible” seal trajectories under varying conditions. Multiple generative AI models may be developed and compared (e.g., Conditional Generative Adversarial Networks, Transformers). 2. Simulate a large number of possible trajectories from these models in order to generate spatial distribution maps of potential habitats and assess their overlap with anthropogenic activities (e.g., maritime traffic, fisheries). Simulations under alternative climate scenarios will also be performed to identify potential shifts or losses of habitats. 3. Integrate these simulations into the UCLR platform to facilitate visualization of habitats under different scenarios. More information on the UCLR: Urban Coastal Lab La Rochelle. The candidate will also be expected to propose additional AI-based approaches to generalize the methodology to other biologging data types, thereby enabling application of the digital twin to other marine species such as fish, seabirds, and marine mammals. Results will be disseminated through publications in international peer-reviewed journals and presentations at scientific conferences. Supervision will be provided by Dr. Marine Gonse and Dr. Mickael Coustaty (L3i). Interactions are also planned with Dr. Cécile Vincent (Pelagis Observatory), an expert in grey seal tagging and telemetry. Profil du candidat : The candidate must hold a PhD in computer science, artificial intelligence, or machine learning, with applications to multimodal data processing. They must demonstrate the ability to conduct independent research and contribute to a multidisciplinary project at the interface of computer science and marine ecology, working collaboratively with both computer scientists and biologists/ecologists. Technical Skills: • Multimodal, spatial, and time-series data analysis • Strong programming skills in multiple languages (Python, Matlab, etc.) • Proficiency in English (reading, writing, speaking); French desirable but not mandatory • Interest in environmental sciences • Experience with digital twin technologies (desirable) Operational Skills: • Rigor, autonomy, and initiative • Ability to work in a multidisciplinary team • Strong organizational and time-management skills • Communication skills for diverse audiences • Critical thinking and curiosity • Project management and activity planning • Reporting progress through concise written summaries • Strong writing and oral presentation skills in English Formation et compétences requises : Adresse d’emploi : La Rochelle Université Laboratoire Informatique Image Interaction Av. Michel Crépeau, 17042 La Rochelle Document attaché : 202510210812_Fiche_poste_postdoc_IA_2026.pdf Nov 16 Sun 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IMT Atlantique Durée : 24 mois Contact : francois.rousseau@imt-atlantique.fr Date limite de publication : 2025-11-16 Contexte : Grande école d’ingénieur généraliste de l’IMT-Institut Mines-Télécom, premier groupe d’écoles d’ingénieurs de France, IMT Atlantique a pour ambition d’accompagner les transitions, de former des ingénieurs responsables et mettre l’excellence scientifique et technique au service de l’enseignement, de la recherche et de l’innovation. Dans le cadre du projet ICI (Imagerie Computationnelle pour l’IRM ultra-bas champ), qui vise à à développer un système d’imagerie IRM portable et accessible, fondé sur une approche computationnelle et sur l’intelligence artificielle, en collaboration avec le CHU de Brest et l’entreprise Multiwave (Marseille), nous recrutons Ingénieure ou un Ingénieur au sein de notre département Science des données (DSD). Sujet : En collaboration avec l’équipe du projet, vous développez et maintenez la chaine logicielle de reconstruction et d’analyse d’images IRM ultra-bas champ (Python, PyTorch). Vous assurez la gestion, le stockage et la diffusion des données IRM acquises sur la machine ultra-bas champ en lien avec les partenaires du projet. Vous accompagnez les chercheurs et ingénieurs dans l’utilisation des outils développés et la valorisation des résultats (documentation, packaging, diffusion open source). Vous contribuez à la coordination technique du projet avec les partenaires industriels (Mutiwave) et académiques (LaTIM, CHU de Brest). Profil du candidat : Diplôme Bac + 5 (ingénieur ou master) en informatique, traitement du signal, mathématiques appliquées ou équivalent. Formation et compétences requises : · Solide expérience en développement Python et PyTorch (ou frameworks équivalents). · Bonnes connaissances en traitement et reconstruction d’images, idéalement en imagerie médicale. · Pratique des outils de gestion de code (Git, GitLab, CI/CD). · Connaissances des formats et bibliothèques liés à l’IRM (NumPy, NiBabel, TorchIO). · Autonomie, rigueur et sens du travail collaboratif. Adresse d’emploi : IMT Atlantique, Campus de Brest Informations & contacts : Sur le contenu du poste : François ROUSSEAU – Enseignant Chercheur : francois.rousseau@imt-atlantique.fr Sur les aspects administratifs/RH : Fanny BERNARD – Assistante recrutement – fanny.bernard@imt-atlantique.fr Date limite de candidature : 16/11/2025 Début du contrat souhaité : Janvier 2026 Entretien : Au fil de l’eau Lien : https://institutminestelecom.recruitee.com/o/ingenieure-ou-ingenieur-de-recherche-et-developpement-en-imagerie-computationnelle-et-apprentissage-profond-pour-lirm-ultra-bas-champ-cdd-24-mois Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IMT Atlantique Durée : 24 mois Contact : francois.rousseau@imt-atlantique.fr Date limite de publication : 2025-11-16 Contexte : Grande école d’ingénieur généraliste de l’IMT-Institut Mines-Télécom, premier groupe d’écoles d’ingénieurs de France, IMT Atlantique a pour ambition d’accompagner les transitions, de former des ingénieurs responsables et mettre l’excellence scientifique et technique au service de l’enseignement, de la recherche et de l’innovation. Le département Science des données (DSD) développe des activités de recherche et d’enseignement dans le domaine interdisciplinaire des sciences des données (« Data Science »), en forte interaction avec des enjeux industriels et sociétaux (santé et environnement). Ses activités de recherche s’inscrivent dans le cadre des laboratoires Lab-STICC (UMR CNRS 6285) et LaTIM (UMR 1101 INSERM). Le projet ICI (Imagerie Computationnelle pour l’IRM ultra-bas champ) financé par le programme Inria Quadrant, vise à développer un système d’imagerie IRM portable et accessible, fondé sur une approche computationnelle et sur l’intelligence artificielle, en collaboration avec le CHU de Brest et l’entreprise Multiwave (Marseille). Sujet : Le projet ICI ambitionne de concevoir une IRM ultra-bas champ portable, permettant de réaliser des examens d’imagerie cérébrale au chevet du patient, notamment pour le suivi du développement cérébral des nouveau-nés prématurés. La post-doctorante ou le post-doctorant participera au développement du logiciel de reconstruction d’images, à la gestion des données expérimentales, à l’exploitation des acquisitions IRM et à la mise en œuvre de pipelines de traitement intégrant des méthodes d’apprentissage profond. Profil du candidat : Doctorat en traitement du signal/image, informatique, mathématiques appliquées, ou domaine connexe, obtenu il y a moins de 3 ans. Formation et compétences requises : Excellente maîtrise de la programmation en Python et d’un framework d’apprentissage profond, PyTorch de préférence. Solides connaissances en traitement d’images, en problèmes inverses et en apprentissage automatique (machine learning). Expérience significative en recherche, démontrée par des publications scientifiques de qualité. Adresse d’emploi : IMT Atlantique, Campus de Brest Informations & contacts : Sur le contenu du poste : François ROUSSEAU – Enseignant Chercheur : francois.rousseau@imt-atlantique.fr Sur les aspects administratifs/RH : Fanny BERNARD – Assistante recrutement : fanny.bernard@imt-atlantique.fr Date limite de candidature : 16/11/2025 Début du contrat souhaité : Janvier 2026 Entretien : Au fil de l’eau Lien : https://institutminestelecom.recruitee.com/o/post-doctorat-en-imagerie-computationnelle-pour-lirm-ici-imagerie-computationnelle-pour-lirm-ultra-bas-champ-cdd-24-mois Dec 31 Wed 2025 Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : CRISTAL Lab – UMR CNRS 9189/University of Lille Durée : 24 months – Ideally Contact : hayfa.zgaya-biau@univ-lille.fr Date limite de publication : 2025-12-31 Contexte : The IARISQ project, funded by the French National Research Agency (ANR), aims to develop advanced artificial intelligence (AI) models to predict the toxicity thresholds of airborne particles, taking into account their physico-chemical properties and environmental dynamics. The project combines AI, probabilistic modeling, fuzzy logic, and explainable AI (XAI) to build a robust decision support system for public health and environmental risk assessment. Sujet : We are seeking a highly motivated postdoctoral researcher with strong expertise in machine learning and data science. The selected candidate will contribute to the design, implementation, and evaluation of predictive AI models for toxicity thresholds, with a focus on: – Developing deep learning models (e.g., GANs, Transformers, TabNet) – Managing uncertainty with probabilistic (e.g., GPR, Bayesian Neural Networks) and fuzzy logic approaches (e.g., Interval Type-2 Fuzzy Logic) – Applying explainable AI techniques (e.g., SHAP, LIME, GrC) to identify influential variables – Collaborating with environmental scientists and air quality experts – Preparing scientific publications and sharing code (GitHub, open-source) Related Publications The candidate will contribute to a project with a strong publication record in top-tier journals and conferences. Recent related publications include: 1. Idriss Jairi, Sarah Ben-Othman, Ludivine Canivet, Hayfa Zgaya-Biau, Explainable-based approach for the air quality classification on the granular computing rule extraction technique, Engineering Applications of Artificial Intelligence, 2024. (Q1, IF: 7.5, AI/Software) https://doi.org/10.1016/j.engappai.2024.108096 2. Idriss Jairi, Sarah Ben-Othman, Ludivine Canivet, Hayfa Zgaya-Biau, Enhancing Air Pollution Prediction: A Neural Transfer Learning Approach across Different Air Pollutants, Environmental Technology & Innovation, 2024. (Q1, IF: 6.7, Environmental Engineering) https://doi.org/10.1016/j.eti.2024.103793 3. Idriss Jairi, Amelle Rekbi, Sarah Ben-Othman, Slim Hammadi, Ludivine Canivet, Hayfa Zgaya-Biau, Enhancing particulate matter risk assessment with novel machine learning-driven toxicity threshold prediction, Engineering Applications of Artificial Intelligence, 2025. (Q1, IF: 7.5, AI/Software) https://doi.org/10.1016/j.engappai.2024.109531 Conference Doctoral Consortium Participant, ECAI 2024 – European Conference on Artificial Intelligence, Santiago de Compostela, Spain – October 2024. https://anaellewilczynski.pages.centralesupelec.fr/ecai-2024-dc/accepted.html Profil du candidat : PhD in Artificial Intelligence, Machine Learning, Data Science, or a closely related field. – Strong experience in developing and evaluating deep learning models (e.g., GANs, Transformers, LSTM). – Solid background in uncertainty modeling, explainable AI (XAI), or hybrid AI approaches is a plus. – Excellent programming skills (Python, PyTorch or TensorFlow). – Proven ability to conduct high-quality research, with publications in top-tier conferences or journals. – Autonomy, creativity, and ability to work in a multidisciplinary environment (AI + environment + public health). – Strong communication skills (oral and written) in English. Formation et compétences requises : PhD in computer Science – Artificial Intelligence Adresse d’emploi : https://www.cristal.univ-lille.fr UMR CRIStAL Université de Lille – Campus scientifique Bâtiment ESPRIT Avenue Henri Poincaré 59655 Villeneuve d’Ascq Offre en lien avec l’Action/le Réseau : DatAstro/– — – Laboratoire/Entreprise : CRIStAL / Université de Lille / CNRS / Centrale Li Durée : 18 mois Contact : jenny.sorce@univ-lille.fr Date limite de publication : 2025-12-31 Contexte : The project is part of the Chaire WILL UNIVERSITWINS (UNIVERSe dIgital TWINS) led by Jenny Sorce (funded by the Université de Lille under the initiative of excellence). The successful candidate will be jointly supervised by Jenny Sorce (CNRS Researcher in cosmology) and Pierre Antoine Thouvenin (Assoc. Prof., Centrale Lille), and hosted in the CRIStAL lab (UMR 9189), Lille, France. The work will be conducted in collaboration with Jean Prost (Assoc. Prof., ENSEEIHT) in the IRIT lab. More than 2000 GPU.hours have already been secured for the project at TGCC on the Irene/Rome partition. They will be used to finetune, validate and deploy the surrogate model to perform Bayesian inference. Access to the medium scale computing center from the University of Lille is also ensured. Lien vers le site du projet : https://sorcej.github.io/Jenny.G.Sorce/universitwins.html Lien vers l’offre d’emploi : https://sorcej.github.io/Jenny.G.Sorce/jobads/postdocuniversitwins.pdf Sujet : According to the standard cosmological model, about 95% of the Universe is dark. Recent large survey analyses reveal tensions with this model. For instance, the local measurement of the expansion rate and the estimate of the Universe homogeneity differ by more than three standard deviations from those inferred with the first light of the Universe. These discrepancies are at the heart of a heated debate in cosmology to determine whether these tensions require new physical models to be acccounted for, or are mere consequences of systematic biases in the observation processing pipeline. Part of this pipeline relies on cosmological simulations to act as the missing ground truth. However, the simulations only reproduce the statistics of the local cosmic web. A new type of simulations, qualified as constrained, is emerging. Initial velocity and density fields of such simulations stem from observational constraints. Profil du candidat : PhD in signal/image processing, computer science or applied mathematics. Formation et compétences requises : The project requires a strong background in data science and/or machine learning (statistics, optimization), signal & image processing. Very good Python coding skills are expected. A B2 English level is mandatory. Knowledge in C++ programming, as well as experience or interest in parallel/distributed code development (MPI, OpenMP, CUDA, …) will be appreciated. Adresse d’emploi : UMR CRIStAL Université de Lille – Campus scientifique Bâtiment ESPRIT Avenue Henri Poincaré 59655 Villeneuve d’Ascq Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : Université de technologie de Troyes Durée : 4 ans (2+2) Contact : malika.kharouf@utt.fr Date limite de publication : 2025-12-31 Contexte : Présentation de l’établissement : L’Université de technologie de Troyes créée en 1994, est aujourd’hui classée parmi les 10 écoles d’ingénieurs les plus importantes en France et forme 3100 étudiants chaque année. Tournée vers l’excellence et en interaction permanente avec le monde économique, l’UTT s’inscrit durablement avec une stratégie d’ouverture et de construction du futur pour un avenir soutenable. En tant que leader du projet d’Université Européenne EUt+, au côté d’une alliance regroupant 9 partenaires, l’UTT est à la fois, à l’initiative, pilote et établissement expérimental pour le développement des nouvelles méthodes et orientations de l’EUt+. Acteur du développement économique et social de son territoire, Aube, Champagne et Grand Est, l’UTT est implantée à Troyes, ville dynamique à taille humaine, riche d’histoire de patrimoine et de culture, ce qui permet à chacun de s’épanouir dans un cadre privilégié à proximité de la nature. Missions de l’agent : Rattaché à la Direction de la formation et de la pédagogie, l’ingénieur de formation orienté IA fera partie d’une équipe projet impliquant la formation initiale, la formation continue, la coopérative pédagogique (le centre d’innovation pédagogique de l’UTT). Il/elle jouera un rôle clé dans la conception, la structuration et la mise en œuvre de ce nouveau programme de formation, en collaboration avec des experts du domaine, des enseignants, des ingénieurs pédagogiques et des partenaires académiques. Il/elle pourra être amené(e) à organiser et animer des sessions de formation (CM, TD, TP, webinaire, …) en soutien au déploiement de nouveaux contenus. Enfin, il/elle pourra contribuer aux comptes rendus, rapports d’activité et constitution de pièces justificatives éventuellement demandées par le financeur. Sujet : Missions de l’agent : Rattaché à la Direction de la formation et de la pédagogie, l’ingénieur de formation orienté IA fera partie d’une équipe projet impliquant la formation initiale, la formation continue, la coopérative pédagogique (le centre d’innovation pédagogique de l’UTT). Il/elle jouera un rôle clé dans la conception, la structuration et la mise en œuvre de ce nouveau programme de formation, en collaboration avec des experts du domaine, des enseignants, des ingénieurs pédagogiques et des partenaires académiques. Il/elle pourra être amené(e) à organiser et animer des sessions de formation (CM, TD, TP, webinaire, …) en soutien au déploiement de nouveaux contenus. Enfin, il/elle pourra contribuer aux comptes rendus, rapports d’activité et constitution de pièces justificatives éventuellement demandées par le financeur. Activités principales : • Participer à la conception, au développement et au déploiement de la formation Bachelor IA, en collaboration avec des experts du domaine, des enseignants, des ingénieurs pédagogiques, des partenaires académiques, … • Elaborer des programmes de formation, des supports pédagogiques et des évaluations innovants en adoptant une approche par compétences • Proposer et expérimenter des formats pédagogiques innovants (blended learning, classes inversées, projets tutorés, etc.) • Collaborer avec des experts métiers, enseignants et ingénieurs pédagogiques pour coconstruire des contenus pédagogiques innovants et de qualité • Organiser et animer des sessions de formation (CM, TD, TP), des ateliers, des séminaires ou des webinaires • Participer à l’évaluation des besoins en formation des apprenants et adapter les contenus en conséquence • Contribuer à la mise en place et à l’animation des outils de suivi qualité de la formation et de dispositifs d’amélioration continue • Proposer des ajustements pédagogiques fondés sur les retours d’expérience, les évaluations… • Valoriser les ressources pédagogiques produites (articles, webinaires, présentations) • Participer à des événements académiques ou professionnels pour partager des retours d’expérience • Contribuer à la diffusion et/ou la communication via des plateformes ouvertes ou des publications internes • Contribuer aux comptes rendus, rapports d’activité et constitution de pièces justificatives éventuellement demandées par le financeur • Réaliser une veille pédagogique et technologique continue sur les sujets liés à l’intelligence artificielle, à l’enseignement supérieur et aux méthodes d’apprentissage innovantes • Garantir la pertinence et l’actualité des contenus de formation en tenant compte des évolutions du domaine • Participer à des salons, forums ou événements autour de l’intelligence artificielle ou de l’orientation scolaire • Soutenir, ponctuellement, les activités de la DFP Profil du candidat : Compétences essentielles du poste : Savoirs généraux, théoriques ou disciplinaires • Connaissances solides des concepts fondamentaux et avancés en intelligence artificielle • Maîtrise des sciences de l’éducation, de la pédagogie et/ou de l’ingénierie de formation • Maîtrise des approches pédagogiques innovantes • Connaissances solides de l’approche par compétences • Bonne connaissance du fonctionnement de l’enseignement supérieur (formation initiale / continue) • Capacité à traduire des connaissances techniques complexes en contenus pédagogiques accessibles clairs, engageants et accessibles Savoir-faire opérationnels • Concevoir et structurer une offre de formation en lien avec les besoins d’un secteur spécifique (IA) • Élaborer des contenus pédagogiques adaptés à différents formats (présentiel, distanciel, hybride) • Concevoir et animer des sessions de formation (CM, TD, TP, ateliers, séminaires, webinaires) • Utiliser les outils numériques et technologiques pour la formation (LMS, outils auteur, outils collaboratifs, plateformes d’apprentissage) • Piloter des projets pédagogiques en mode collaboratif avec divers acteurs (enseignants, experts, partenaires) • Réaliser une veille technologique et pédagogique et intégrer les innovations pertinentes • Définir et mettre en œuvre des outils d’évaluation et de suivi qualité des dispositifs de formation • Rédiger des comptes rendus, rapports d’activité et documents administratifs liés aux formations Savoir-être • Capacité à travailler en équipe et en mode projet avec des interlocuteurs variés • Sens de l’organisation, réactivité, et rigueur dans le suivi des projets, la gestion des priorités • Autonomie, esprit d’initiative et capacité à proposer des solutions innovantes • Aisance à l’oral comme à l’écrit dans un contexte professionnel • Esprit d’analyse et capacité à prendre du recul pour ajuster les pratiques pédagogiques • Curiosité intellectuelle et goût pour l’apprentissage continu Formation et compétences requises : Adresse d’emploi : Université de technologie de Troyes 12 rue Marie Curie, 10300 Troyes Document attaché : 202509220941_F_H Ingénieur_Formation_IA-2.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LISIC – Université du Littoral Durée : 1 year Contact : esteban.bautista@univ-littoral.fr Date limite de publication : 2025-12-31 Contexte : The Industrial Internet of Things (IIoT) is a rapidly evolving paradigm in which industrial sensors, machines, and other instruments are connected to the internet. The data provided by these systems are of great value for automated surveillance and detecting anomalies in them is a task of utmost importance. Temporal graphs are a very effective model for IIoT data, where nodes represent devices; node features represent their measurements; and time-varying weighted edges capture various types of information. In the initial phase of this project, we have already developed powerful auto-encoder models capable of detecting both temporal and structural anomalies in temporal graphs. Yet, while our models allow us to detect the presence of an anomaly, they are still unable to localise it. The main goal of this postdoctoral project is therefore to fundamentally extend our temporal graph auto-encoder models beyond anomaly detection to also perform anomaly localization. Sujet : The recruited postdoc will have two main goals: Extension of Auto-Encoders for Anomaly Localization. Our models currently receive a temporal graph as input and produce an anomaly score that is proportional to the severity of its abnormal events. Even though they can be used to localize anomalies by searching for the subset of maximal anomaly score, such an approach is impractical due to the exponential number of subsets to test. We aim to prune-down the search space by properly structuring the auto-encoder’s latent representation. This will require substantial architectural innovation to disentangle the auto-encoder’s structured representation and achieve fine-grained anomaly localization. Application to IIoT logs and measurements. We aim to evaluate the methodological developments above in real-world IIoT dataset that contain various types of attacks (structural anomalies) and measurement faults (feature anomalies). We aim to explore the advantages of our approach in real-world, potentially on-line, scenarios, such as machine health monitoring, transportation network monitoring, or other use cases that may arise from collaborations with local companies. Profil du candidat : We look for highly motivated candidates with relevant experience in anomaly detection, signal processing, graph machine learning, and/or deep learning. Experience in Python programming, cybersecurity and/or streaming algorithms is a plus. Ideal candidates will have a publication record in selective AI conferences. Interested candidates are invited to send a cover letter, a detailed CV (with a publication list and the contact details of two references), and their PhD manuscript or a recent paper to: esteban.bautista@univ-littoral.fr claire.guilloteau@univ-littoral.fr Applications will be reviewed on a rolling basis until the position is filled. Formation et compétences requises : PhD in Computer Science or related areas Adresse d’emploi : LISIC Laboratory, Saint-Omer, France Document attaché : 202511041003_Postdoc___Temporal_Graph_Auto_Encoders____Job_Offer.pdf
|
Offres de thèses
Jun 30 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : GREYC (Caen) ou CARMeN(Rouen) ,à discuter avec le Durée : 3 ans Contact : luc.brun@ensicaen.fr Date limite de publication : 2025-06-30 Contexte : Les laboratoires GREYC (Informatique) et CARMeN (chimie théorique) collaborent dans le cadre d’une bourse de thèse CNRS entre les instituts de chimie et d’informatique, L’accueil principal du doctorant pourra être discuté avec ce dernier la thèse se déroulant de toute façon dans le cadre d’une collaboration étroite entre les deux laboratoires. La bourse de thèse permet de financer outre le salaire du doctorant, un certain nombre de frais annexes tels que des déplacements. Sujet : La prédiction de liaisons non covalentes dans une molécule est un processus complexe qui nécessite de calculer l’évolution de la position de chacun des atomes des celle-ci au cours du temps. Ce processus peut être effectué à l’aide de logiciel de chimie quantique très coûteux en calcul, ce qui limite ce type de prédiction à des jeux réduits de petites molécules. L’objet de la thèse est de concevoir des méthodes de prédiction plus efficace en remplaçant l’étape de simulation par une étape d’apprentissage à l’aide d’apprentissage profond sur graphes. Profil du candidat : Diplômé d’un diplôme d’ingénieur ou d’un master en informatique, l’étudiant doit être à l’aise en programmation python et dans la lecture d’articles avec un contenu scientifique. Il devra également être autonome et approfondir de lui-même les pistes de recherche qui lui seront indiquées. On s’attend à ce qu’il soit force de proposition au terme de la première année de thèse. Formation et compétences requises : Diplômé d’un diplôme d’ingénieur ou de master en Informatique avec une spécialisation en apprentissage profond. Des compétences en graphes et des bases en chimie seraient appréciées sans être des prérequis. Adresse d’emploi : GREYC 6 boulevard du Maréchal Juin, 14050 Caen ou Laboratoire COBRA Bâtiment IRCOF – 1, rue Tesnière 76821 Mont-Saint-Aignan cedex À discuter avec l’étudiant Document attaché : 202504031311_these_rouen.pdf Offre en lien avec l’Action/le Réseau : DatAstro/Doctorants Laboratoire/Entreprise : CRIStAL / Univ. Lille Durée : 36 months Contact : jenny.sorce@univ-lille.fr Date limite de publication : 2025-06-30 Contexte : This PhD thesis proposal focuses on improving galaxy cluster mass estimation to enhance cosmological parameter inference, in order to address critical challenges such as the S8 cosmological parameter discrepancy. By leveraging multi-wavelength observations, advanced statistical techniques including Bayesian inference and machine learning to solve this inverse problem, the project aims to refine relations between the cluster mass and their observable properties, reduce data dimensionality, and efficiently process large datasets. Anticipated outcomes include innovative Bayesian hierarchical models, optimized data reduction algorithms, and a robust inference pipeline for generating a high-fidelity galaxy cluster mass catalog towards testing cosmological models. Sujet : The standard cosmological model successfully describes the Universe’s large-scale structure and evolution. Observational evidence, including the cosmic microwave background (CMB) and the hierarchical distribution of galaxies in the cosmic web, provides strong support for this model. These data suggest that dark matter and dark energy dominate the Universe, together constituting approximately 95% of its total content. Despite its success, this model faces challenges. For instance, the value derived for the S8 parameter, which characterizes the matter distribution on certain scales, differs by three standard deviations when using galaxy cluster counts instead of CMB observations. Resolving this tension is critical to determine whether new physics theories are required, or systematic errors in data analysis pipelines need to be accounted for. Galaxy clusters are a key tool to address these challenges. As the largest gravitationally bound structures in the Universe, their number and masses are closely related to the underlying cosmology. Accurately estimating their masses and number across diverse environments and redshifts is essential to test the standard model and refine our understanding of the Universe. This PhD project focuses on developing Bayesian hierarchical models to improve the estimation of galaxy cluster masses. By leveraging multi-wavelength observations, advanced data reduction, and machine learning techniques, this research will provide more precise mass estimates, refine scaling relations, and facilitate the inference of cosmological parameters from large datasets. Profil du candidat : Formation et compétences requises : Adresse d’emploi : UMR CRIStAL Université de Lille – Campus scientifique Bâtiment ESPRIT Avenue Henri Poincaré 59655 Villeneuve d’Ascq Document attaché : 202503181504_main.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIFAT (Laboratoire d’Informatique Fondamentale et Durée : 3 ans Contact : frederic.rayar@univ-tours.fr Date limite de publication : 2025-06-30 Contexte : Cette offre de thèse s’inscrit dans le cadre du projet « Fact Checking » mené depuis 2021 entre le laboratoire LIFAT et l’équipe PRIM (chercheurs en Science de l’Information et de la Communication). Le fact checking, ou vérification de fait, consiste à vérifier la véracité des faits présentés dans les médias par des personnalités publiques ou autres organisations. De nombreux travaux de recherches ont été et sont en train d’être menéspour répondre à l’enjeu majeur de la désinformation, notamment depuis l’avènement des technologies de deep-fake et d’IA génératives. Ce phénomène de désinformation massive est observable dans plusieurs domaines : on peut citer en particulier la sphère politique (« political discourse »), le changement climatique ou encore le domaine de santé (« COVID-19 misinformation »). Cette thèse vise à la conception et à l’évaluation de nouvelles techniques de détection multimodale (vidéo, image, audio, texte) dans du contenu multimédia (vidéo, audio). Sujet : Cette thèse vise à la conception et à l’évaluation de nouvelles techniques de détection multimodale (vidéo, image, audio, texte) dans du contenu multimédia (vidéo, audio). Pour ce faire, la thèse explorera l’utilisation de concepts d’IA à différents niveaux « Audio-visual Active Speaker identification » (ASD), « Multimodal Named Entity recognition » (MNER), « Retrieval-Augmented Generation » (RAG), etc., et l’exploitation d’une base de données de fait vérifiés existante (base de données issue de travaux précédents ou benchmark existants). Par ailleurs, compte-tenu de l’impact sociétal de ces travaux, un fort accent sera mis sur l’explicabilité des algorithmes multimodaux proposés, en agrégant différentes solutions : récupération d’information tierces via la recherche d’information, génération textuelle, visualisation d’élément saillant dans les images/vidéos, isolation des séquences d’intérêt dans les pistes audio/vidéos, etc. Enfin, durant la réalisation de ces travaux de recherche, il s’agira aussi de tenir compte des verrous théoriques et empiriques de l’acception des citoyens d’un tel outil via les notions d’interactions avec les outils développés, et de visualisation interactive et d’ergonomie. Ces aspects seront abordés via une collaboration avec des chercheurs en sciences de l’information et de la communication ou des journalistes et fact-checkers. Profil du candidat : M2 en informatique ou diplôme d’ingénieur Bonnes connaissances en Machine Learning et Intelligence Artificielle Bonnes connaissances en programmation indispensables Des compétences en développement web sont souhaitables Bonnes capacités de communication et de rédaction, en particulier en anglais Formation et compétences requises : Adresse d’emploi : Laboratoire d’Informatique LIFAT Équipe RFAI (Reconnaissance des Formes et Analyse d’Images) 64 avenue Jean Portalis – 37200 – Tours Document attaché : 202502101508_2025_PhD_lifat_v3.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : GREYC UMR 6072 Durée : 3 ans Contact : bruno.cremilleux@unicaen.fr Date limite de publication : 2025-06-30 Contexte : Cf. document attaché Sujet : Cf. document attaché Profil du candidat : Cf. document attaché Formation et compétences requises : Cf. document attaché Adresse d’emploi : Université de Caen Normandie (Caen, Normandy, France: GREYC, Campus Côte de Nacre) : Document attaché : 202504291608_TheseXAIforGraphDataAugmentation_EpitaGREYC.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : GREYC UMR 6072 Durée : 36 mois Contact : abdelkader.ouali@unicaen.fr Date limite de publication : 2025-06-30 Contexte : Cf. document attaché. See attached document. Sujet : Cf. document attaché. See attached document. Profil du candidat : Cf. document attaché. See attached document. Formation et compétences requises : Cf. document attaché. See attached document. Adresse d’emploi : Université de Caen Normandie (Caen, Normandy, France: GREYC, Campus Côte de Nacre). Document attaché : 202505042125_FIDD-PhD-25.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IRISA Durée : 36 months Contact : tristan.allard@irisa.fr Date limite de publication : 2025-06-30 Contexte : This PhD offer is funded by the PEPR Cybersecurity IPoP project (https://files.inria.fr/ipop/) and proposed by the Security and Privacy team (SPICY, https://www-spicy.irisa.fr/) from the IRISA institute (https://www.irisa.fr/en) in Rennes, France. The work will be supervised jointly by Tristan Allard (PhD, HDR, https://people.irisa.fr/Tristan.Allard/) associate professor at the University of Rennes, expert in privacy in data intensive systems, and Barbara FILA (PhD, HDR, http://people.irisa.fr/Barbara.Fila/), associate professor at INSA Rennes, expert in formal methods for risk assessment. The successful candidate will be working at IRISA — the largest French research laboratory in the field of computer science and information technologies (more than 850 people). IRISA provides an exciting environment where French and international researchers perform cutting edge scientific activities in all domains of computer science. Rennes is located in the West part of France in the beautiful region of Brittany. From Rennes, you can reach the sea side in about 45~minutes by car and Paris center in about 90~minutes by train. Rennes is a nice and vibrant student-friendly city. It is often ranked as one of the best student cities in France. Rennes is known and appreciated for its academic excellence, especially in the field of cybersecurity, its professional landmark, the quality of its student life, the affordability of its housing offer, its rich cultural life, and much more. Sujet : Context and goal Health data, social networks, electricity consumption… Vast quantities of personal data are collected today by private companies or public organizations. Various legal, monetary, or visibility incentives push data holders to envision sharing versions of the collected datasets that provide both statistical utility and privacy guarantees. Indeed, sharing data at large, e.g., as open data, without jeopardizing privacy, is expected to bring strong benefits (strengthening, e.g., scientific studies, innovation, public policies). Synthetic data generation is a promising approach. First, synthetic data generation algorithms aim at generating datasets that are as close as possible to the original datasets. Either synthetically generated data or the generative models trained over the original data could be shared for supporting elaborate data analysis. Second, substantial progress has been made during the last decade about the privacy guarantees of synthetic data generation algorithms. For example, there exist today synthetic data generation algorithms that satisfy variants of differential privacy, one of the most prominent family of privacy models [2]. However security is a constant race between the attackers and the defenders. A large number of attacks exists and keeps growing [5]. As a result, because of the complex environment in which synthetic data generation takes place (e.g., utility needs, diversity of information sources, diversity of data generation algorithms), analyzing the risks remains hazardous even when strong privacy-preserving techniques are used. The main goal of this PhD thesis is to design a formal method based approach allowing data holders to analyze the risks related to their synthetic data publication practices. The main tasks of the PhD student will be to: – Study the state-of-the-art about attacks on synthetic data generation algorithms (e.g., membership inference attacks [4, 6]) and about relevant formal methods (e.g., attack tree based risk analysis models [3]). We will focus on tabular data and time series. – Model the full synthetic data generation environment. Most especially, this includes capturing the attackers’ capabilities (e.g., goals [5], background knowledge, computational resources, sequences of steps), the relationships between attackers, the sources of auxiliary information, and the data sharing practices. – Design efficient algorithms for finding the attacks that illustrate privacy risks, implement them, and evaluate their performance. In addition to the core tasks of the project, the successful candidate will also contribute to the organisation of competitions where the privacy guarantees of synthetic data generation algorithms are challenged [1] (see, e.g., the Snake1 challenge (https://snake-challenge.github.io)). References [1] Tristan Allard, Louis Béziaud, and Sébastien Gambs. Snake challenge: Sanitization algorithms under attack. Proceedings of the 32nd ACM International Conference on Information and Knowledge Management (CIKM ’23), 2023. [2] Damien Desfontaines and Balázs Pejó. Sok: Differential privacies. Proceedings on Privacy Enhancing Technologies, 2020(2):288–313, 2020. [3] Barbara Kordy (Fila), Ludovic Piètre-Cambacédès, and Patrick Schweitzer. Dag-based attack and defense modeling: Don’t miss the forest for the attack trees. Comput. Sci. Rev., 13-14:1–38, 2014. [4] Hongsheng Hu, Zoran A. Salcic, Lichao Sun, Gillian Dobbie, P. Yu, and Xuyun Zhang. Membership inference attacks on machine learning: A survey. ACM Computing Surveys (CSUR), 54:1 – 37, 2021. [5] Ahmed Salem, Giovanni Cherubin, David Evans, Boris Köpf, Andrew Paverd, Anshuman Suri, Shruti Tople, and Santiago Zanella-Béguelin. Sok: Let the privacy games begin! a unified treatment of data inference privacy in machine learning. In Proceedings of the 2023 IEEE Symposium on Security and Privacy (S&P ’23), pages 327–345, 2023. [6] Antonin Voyez, Tristan Allard, Gildas Avoine, Pierre Cauchois, Élisa Fromont, and Matthieu Simonin. Membership inference attacks on aggregated time series with linear programming. In Proceedings of the 19th International Conference on Security and Cryptography (SECRYPT ’22), 2022. Profil du candidat : – The candidate must have obtained, or be about to obtain, a master degree in computer science or in a related field. – The candidate must be curious, autonomous, and rigorous. – The candidate must be able to communicate in English (oral and written). The knowledge of the French language is not required. – The candidate must have a strong interest in cybersecurity. – Skills in machine learning and/or formal methods will be appreciated. Formation et compétences requises : Adresse d’emploi : IRISA Rennes Campus de Beaulieu, 263 avenue du Général Leclerc 35042 RENNES cedex Document attaché : 202501201621_PhD_thesis_IRISA_France.pdf Jul 31 Thu 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Centre de Recherche en Informatique, Université Pa Durée : 3 ans Contact : Manuele.Kirsch-Pinheiro@univ-paris1.fr Date limite de publication : 2025-07-31 Contexte : La généralisation du télétravail a profondément transformé les modes de collaboration en entreprise, entraînant une multiplication des plateformes numériques (Teams, Zoom, Jira, etc.) et une dispersion des informations. Cette évolution s’accompagne de nouveaux défis : perte de cohésion, isolement, difficulté à suivre l’état d’avancement des projets, et augmentation du risque de désengagement ou de détresse psychologique chez les collaborateurs. Sujet : La thèse se positionne au carrefour de deux domaines de recherche : le travail coopératif assisté par ordinateur (TCAO ou CSCW en anglais), avec sa notion de conscience de groupe (group awareness), et l’Intelligence Artificielle, et notamment ses techniques de Machine Learning. La thèse vise à : • Proposer des modèles d’IA et de Machine Learning pour extraire, à partir des traces d’activités multi-plateformes, les informations pertinentes à la conscience de groupe (group awareness) ; • Détecter précocement les signes de désengagement ou de détresse chez les membres d’une équipe ; • Concevoir des mécanismes personnalisés de diffusion d’information et d’alerte, respectant la vie privée (RGPD, AI Act), pour renforcer la cohésion et le bien-être des équipes ; • Explorer des approches de Federated Learning et d’apprentissage incrémental pour l’adaptation des modèles à chaque contexte collaboratif. Profil du candidat : • Master en informatique avec spécialisation data science, IA, ou domaine connexe. • Intérêt pour les problématiques humaines et organisationnelles du travail collaboratif. • Esprit d’initiative, autonomie, et capacité à travailler en équipe interdisciplinaire. Formation et compétences requises : • Solide maîtrise en Machine Learning, traitement de données, et systèmes distribués. • Des connaissances ou expériences précédentes dans le domaine du CSCW seraient appréciées. • Bonnes compétences en communication scientifique (français et anglais). Adresse d’emploi : Centre de Recherche en Informatique, Université Paris 1 Panthéon-Sorbonne, Centre Pierre Mendes-France (Paris 13ème) Document attaché : 202506301529_PropositionSujetThese-annonce.pdf Aug 31 Sun 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : CReSTIC / Institut Godinot / AQUILAB Durée : 36 mois Contact : Arnaud.BEDDOK@reims.unicancer.fr Date limite de publication : 2025-08-31 Contexte : Sujet : Cf. document pdf. Profil du candidat : Formation et compétences requises : Adresse d’emploi : CReSTIC Université de Reims Champagne Ardenne Document attaché : 202505121850_Appel_candidature_20250512.pdf Oct 15 Wed 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LASTIG, IGN / Gustave Eiffel University Durée : 3 years Contact : valerie.gouet@ign.fr Date limite de publication : 2025-10-15 Contexte : PhD offer Indexing and retrieval of visual contents in 3D point clouds at large scale – Application to spatialization LASTIG Lab / IGN and Gustave Eiffel University / Paris great area, France All the details: https://agape-anr.github.io/docs/annonce_these_loc2D3D-EN.pdf Sujet : At a glance The thesis project focuses on the spatialization of visual contents (both image and video contents) by the exploitation of 3D references at large scale. Without any a priori about geolocation, the problem is tackled by the retrieval of the most similar elements in the geolocalized reference. As visual content, we consider old photographs and footages made available from cultural institutions, and as 3D reference we exploit LiDAR data mapping the French territory, made available at the country scale by the French mapping agency (IGN). This PhD thesis has the ambition to address two challenging scientific problems: on the one hand, the description, matching and indexing of 2D(+t) and 3D data in a multi-date context where the scene has evolved over time, and on the other hand, the fast retrieval in very large volumes of data. The work will be carried out within the framework of the multidisciplinary project AGAPE, which addresses the discoverability and investigation in spatial iconographic heritage, and gathers seven leading partners specialized in visual and multimodal AI, Multimedia and Human-Computer Interaction as well as in Archives, History and Media. Keywords Computer Vision, Artificial Intelligence, Indexing and Retrieval, Vision Languages Models, Image analysis, 3D Point Clouds, Big Data, Geolocalization, Cultural Heritage. Profil du candidat : How to apply Before July 14, 2025, please send to both contacts in a single PDF file the following documents: o A detailed CV o A topic-focused cover letter o Grades and ranks over the last 3 years of study o The contact details of 2 referents who can recommend you Candidatures which do not respect these instructions will not be considered. Auditions will be conducted during period July 15-23; decision released no later than July 25. Formation et compétences requises : Adresse d’emploi : IGN-ENSG, Université Gustave Eiffel 6-8 Av. Blaise Pascal, 77420 Champs-sur-Marne FRANCE Document attaché : 202506021533_annonce_these_loc2D3D-EN.pdf Oct 31 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LISTIC – Université Savoie Mont-Blanc Durée : 3 ans Contact : jean-yves.ramel@univ-smb.fr Date limite de publication : 2025-10-31 Contexte : La thèse sera encadrée par David Télisson et JY Ramel Au sein de l Equipe ReGards du LISTIC, Dans le cadre de la chaire MIAI FONDUE (https://miai-cluster.univ-grenoble-alpes.fr/) Sujet : Combinaison LLM et GNN pour la fusion de représentations multimodales : Application à l’extraction d’information dans les données semi-structurées liées aux activités humaines ou professionnelles. Détails: https://www.univ-smb.fr/listic/wp-content/uploads/sites/66/2025/09/these2025fondue.pdf Profil du candidat : Master en informatique, data science, intelligence artificielle, Formation et compétences requises : – Compétences solides en machine learning, NLP ou traitement d’images. – Intérêt pour les approches multi-modales et les architectures hybrides. – Maîtrise de Python, Pytorch/Tensorflow, et des bibliothèques LLM Adresse d’emploi : Université Savoie-Mont-Blanc LISTIC – Bat 2D Campus Savoie-Technolac 73376 Le BOURGET du LAC cedex Document attaché : 202509251147_these2025fondue.pdf Nov 30 Sun 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : UMR AGAP Institut, CIRAD, Montpellier Durée : 3 ans Contact : frederic.boudon@cirad.fr Date limite de publication : 2025-11-30 Contexte : Les modèles structure-fonction (FSPM) permettent d’analyser finement le fonctionnement et la croissance des plantes dans des environnements fluctuants. Ils simulent l’interaction entre la structure modulaire de la plante, sa géométrie (distribution spatiale 3D) et les processus physiologiques en interaction avec l’environnement (Prusinkiewicz, 2004 ; Fourcaud et al., 2008 ; Louarn et Song, 2020). Ses modèles considèrent que la structure tridimensionnelle des plantes constitue à la fois son interface avec l’environnement et un déterminant majeur de leur croissance et leur productivité (Costes et al., 2006). Ils sont particulièrement mobilisés pour l’étude et la modélisation d’arbres fruitiers (Costes et al., 2008 ; Allen et al., 2005 ; Lescourret et al., 2011 ; Boudon et al., 2020) où la compétition interne pour les ressources entre organes exige des représentations dynamiques et spatialisées. Toutefois, un obstacle majeur réside dans la paramétrisation de ces modèles, qui limite leur adoption pour le développement d’outils d’aide à la décision en gestion de vergers (DeJong, 2019) et, plus largement, freine leur diffusion au sein de la communauté scientifique. La télédétection, associée aux méthodes d’analyse basées sur le deep learning, offre un fort potentiel pour caractériser le fonctionnement et la croissance des plantes, et ainsi contribuer à la paramétrisation des modèles structure-fonction. L’émergence récente de capteurs variés (caméras RGB, LiDAR, thermiques, etc.) et de plateformes d’acquisition (drones, phénomobiles, etc.) ouvre de nouvelles perspectives pour le phénotypage haut débit et le suivi des vergers. Plusieurs initiatives récentes visent à automatiser le phénotypage des arbres, mais elles se focalisent généralement sur un nombre restreint de traits, souvent insuffisant pour alimenter un FSPM de manière complète (Streit et al., 2023). Dans ce contexte, l’objectif de cette thèse est de développer une nouvelle génération de modèles FSPM d’arbres fruitiers, hybridant les approches classiques de modélisation avec des données haut débit issues du phénotypage en verger. En s’appuyant notamment sur les projets Gardens et PHENET, l’utilisation de FSPM paramétrés par des données de phénotypage haut débit permettra de produire des jumeaux numériques et de caractériser et explorer “in silico” la résilience de systèmes agricoles. Un enjeu majeur des approches FSPM est de pouvoir reproduire et simuler des structures topologiques décrivant l’architecture de la plante et leurs informations géométriques ou physiologiques associées, notamment issues de la télédétection. Ces structures peuvent être décomposées en séquences qui représentent par exemple la ramification le long des axes de la plante. Des méthodes statistiques dédiées (Guédon et al., 2001) ont été développées par la communauté scientifique pour pouvoir analyser et simuler ces séquences. Récemment, les grands modèles de langage (LLM) ont connu une évolution remarquable, révolutionnant le traitement du langage naturel et trouvant des applications dans divers domaines scientifiques. Ils reposent principalement sur des architectures de réseaux de neurones avancées, parmi lesquelles les Transformers (Vaswani et al., 2017) jouent un rôle central. Contrairement aux modèles séquentiels classiques comme les RNN (Recurrent Neural Networks) ou les LSTM (Long Short-Term Memory), les Transformers exploitent un mécanisme d’attention permettant de traiter les données en parallèle plutôt que de manière séquentielle. Ce mécanisme, dit Self-Attention, pondère l’importance de chaque élément dans une séquence par rapport aux autres, améliorant ainsi la capture des dépendances à longue portée dans une séquence. Par ailleurs, d’autres approches comme les Autoencodeurs Variationnels (VAE) (Kingma & Welling, 2013) sont également utilisées dans certains modèles de génération, notamment pour apprendre des représentations latentes structurées du langage. Ces approches ouvrent des perspectives prometteuses pour leur application en modélisation FSPM, notamment en facilitant l’apprentissage et la génération automatique de structures arborescentes représentant l’architecture des plantes. Sujet : Lors de la première étape, ce projet s’appuiera sur des modèles FSPM existants dans la plateforme libre OpenAlea, tels que MappleT (pommier), dans lesquels la structure des arbres est modélisée par des processus stochastiques (p. ex. semi-chaînes de Markov cachées) calibrés à partir de relevés de croissance dont l’acquisition et l’analyse sont coûteuses en temps et en expertise. Une première étape de la thèse consistera à étendre un modèle d’arbre FSPM en générant la structure arborescente à l’aide de “Large Language Models” (LLM), notamment des réseaux Transformers ou des Variational Autoencoders (VAE), afin de générer la succession des organes et leurs types associés. Les observations et les sorties des modèles statistiques déjà calibrés serviront à entraîner et à paramétrer ces réseaux. Une deuxième étape sera de simuler un modèle FSPM d’arbre fruitier contraint par des données LIDAR, issues des projets PHENET (pommier) et Gardens (citrus). A partir de ces scans, des structures topologiques augmentées d’information géométriques seront générées. Et les réseaux entraînés précédemment seront étendus pour permettre la génération de ces structures et de leurs informations associées. Un enjeu majeur consistera à développer des codages relatifs (paramétrisation des entités en fonction des paramètres du nœud parent) adaptés à ces informations pour garantir une génération séquentielle cohérente des éléments de l’architecture. Enfin, dans une troisième étape, nous explorerons l’utilisation de descriptions partielles à certaines phases clés de la croissance. Par exemple, des reconstructions LiDAR pourraient être disponibles uniquement au début et à la fin d’un cycle de croissance, tandis que des observations plus approximatives (vols de drone estimant le volume global de la plante, distribution spatiale de la végétation, etc.) pourraient être obtenues à intervalles réguliers. Dans ce contexte, un apprentissage par renforcement sera utilisé pour calibrer les modèles de croissance. Ce cadre permettra d’alterner entre l’exploitation des données existantes pour optimiser la génération de la structure et l’exploration de nouvelles configurations possibles Dans une dernière étapes, ces méthodes seront appliquées pour reconstruire un verger en 3D à partir d’informations de phénotypage (drones, LIDAR) puis de simuler des processus biophysiques difficilement observables comme l’interception de la lumière ou le stress hydrique afin d’estimer la résilience du système, la distribution des ressources dans ces systèmes (lumière, eau) et de proposer de nouveaux traits (dans notre cas représentés comme des paramètres de modèles), de nouvelles variétés, et de nouvelles conduites (densité d’arbres, taille, association d’espèces) permettant d’optimiser ces systèmes. Profil du candidat : Titulaire d’un master en informatique ou d’un diplôme d’ingénieur avec des compétences en deep learning et idéalement en 3D. Programmation en Python et C/C++. Intérêt pour la biologie et l’agronomie. Formation et compétences requises : Adresse d’emploi : CIRAD, Phenomen team, UMR AGAP Avenue Agropolis TA A-108 / 01 34398 Montpellier Cedex 5, France Document attaché : 202510131618_these-assimilation-vf-2025.pdf Dec 15 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : SIEO Lab Romania/LISTIC France Durée : 36 mois Contact : yajing.yan@univ-smb.fr Date limite de publication : 2025-12-15 Contexte : Sujet : Distinct agricultural crops and practices play a central role in shaping the culture and cultural heritage of rural communities in specific regions. The Brașov region in Romania, for instance, is particularly renowned for its potato and sugar beet cultivation, which has earned it the designation ‘Potato Country’. However, these traditional crops are increasingly being replaced by others, such as rapeseed, which are more resilient and better adapted to changing climate conditions. This shift contributes to the loss of cultural heritage. Remote sensing, and in particular Synthetic Aperture Radar (SAR), provides valuable insights into vegetation structure, soil roughness, and soil moisture. The Copernicus program of the European Commission, together with other space agencies, offers free and regularly updated data for the long-term monitoring of agricultural systems. In this project, conducted in close collaboration between French and Romanian research units, we aim at contributing to the preservation of cultural heritage in the selected region of Romania, while the ultimate goal is to take steps towards the development of global strategies to address climate change. In order to reach the aim, we leverage multi-modal, multi-temporal SAR data to (i) quantify the impact of climate change on traditional agricultural crops, (ii) estimate the water demand of these crops, (iii) evaluate nature-based solutions to preserve soil quality, and (iv) predict future dynamics. Research aims: leverage multi-modal (multi-frequency, multi-resolution, multi-polarization, complex signal/amplitude/interferometric coherence/phase), multi-temporal SAR data to monitor the crop growth, crop fields roughness and moisture evolution. Methodology: • Analyze the historical data of agricultural crops on the identified cultural heritage sites in Romania • Multi-modal multi-temporal SAR data collection and pre-processing • Perform SAR data analysis for the assessment of climate change impact – crop structure evolution analysis – soil roughness evolution analysis – soil moisture evolution analysis – correlation analysis with in situ data • Predict the future dynamics with meteorological data • Create open access data sets and tutorials for the community Profil du candidat : We seek for Ph.D candidates with Master degrees on remote sensing, environment and geosciences, information science. Good English skill is necessary for communication. The Ph.D student will spend 24 months in Romania and 12 months in France. Formation et compétences requises : Adresse d’emploi : Space Intelligence and Earth Observation Research Laboratory, Transilvania University of Brasov, Romania, LISTIC, University Savoie Mont Blanc, Annecy, France Document attaché : 202511051450_PhD_subject_crop_monitoring.pdf Dec 22 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : LS2N Durée : 3 year Contact : hala.skaf@univ-nantes.fr Date limite de publication : 2025-12-22 Contexte : I am seeking excellent candidates for a fully funded 3-year Phd position funded by the ANR SaFE-KG project. Goal: Formalise, design, and implement a secure, efficient federation engine enabling LLM-like querying across sensitive biomedical knowledge graphs, with fine-grained access control and provenance. Sujet : In the context of SaFE-KG, the main objectives of the thesis is to design and implement an Efficient and Secure Federation Engine able to: Query decentralized knowledge graphs under fine-grained access control policies. Ensure high performance and scalability in secure federations. Interact with LLM to support query building Return results enriched with provenance and usage control information. Support adaptive query processing techniques, including secure sampling. Profil du candidat : Solid background in Semantic Web, knowledge graphs, SPARQL; familiarity with sampling and/or ML/LLMs is a plus. Formation et compétences requises : Master’s in CS/IS (strong ranking). Adresse d’emploi : LS2N, Nantes Université Document attaché : 202509221432_SujetThèse-Safe-KG-5.pdf Dec 31 Wed 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : ISIR – Institut des Systèmes Intelligents et de Ro Durée : 36 mois Contact : patrick.gallinari@sorbonne-universite.fr Date limite de publication : 2025-12-31 Contexte : AI4Science is an emerging research field that investigates the potential of AI methods to advance scientific discovery, particularly through the modeling of complex natural phenomena. This fast-growing area holds the promise of transforming how research is conducted across a broad range of scientific domains. One especially promising application is in modeling complex dynamical systems that arise in fields such as climate science, earth science, biology, and fluid dynamics. A diversity of approaches is currently being developed, but this remains an emerging field with numerous open research challenges in both machine learning and domain-specific modeling. Generative modeling is transforming machine learning by enabling the synthesis of plausible, high-dimensional data across modalities like text, images, and audio. A similarly profound shift is underway in the sciences, where generative deep learning is being leveraged to model complex physical dynamics governed by partial differential equations (PDEs)—especially in cases where traditional simulations are computationally expensive. The central goal of the PhD project is to investigate whether deep generative architectures—such as diffusion, flow-matching, or autoregressive transformer-based sequence models—can be designed to simulate, generalize, and interpolate physical dynamics across a wide range of parametric and multiphysics regimes. Building on recent advances in neural surrogate modeling, this research will aim to advance generalizable, cross-physics generative modeling. Sujet : RESEARCH OBJECTIVES The overarching research question is: Can we develop generative models that learn structured, physically grounded representations of dynamical systems—enabling synthesis, adaptation, and generalization across physical regimes and multiphysics settings? It unfolds into several complementary directions: LATRENT GENERATIVE MODELS FOR PHYSICAL DYNAMICS The objective is to design generative models—such as diffusion, flow-matching, or autoregressive models—that learn compact and interpretable latent representations of spatiotemporal dynamics governed by PDEs. These models should: • Capture uncertainty and multimodality in solution trajectories. • Generalize across parametric variations. LEARNING ACROSS MULTIPHYSICS SYSTEMS To enable transfer learning across heterogeneous physics, we will explore shared latent representations across families of PDEs: • Using encode–process–decode frameworks. • Applying contrastive or multitask training to uncover reusable physical abstractions. • Designing models invariant to space/time resolution and units. This direction builds toward foundation-like models that capture generalizable physics priors across simulation families. FEW-SHOT and IN-CONTEXT GENERALIZATION TO NEW PHYSICS To support scientific modeling in data-scarce settings, we will develop methods for few-shot generalization such as: • Fine-tuning latent priors to new PDE systems using limited examples. • Exploring meta-learning and prompt-based adaptation techniques (inspired by in-context learning in language models). • Incorporating known physical constraints into the generative process. The goal is to enable rapid and physically consistent adaptation to previously unseen dynamics with minimal data and supervision. Profil du candidat : Computer science or applied mathematics. Master degree in computer science or applied mathematics, Engineering school. Formation et compétences requises : Good programming skills. Background and experience in machine learning. Adresse d’emploi : Sorbonne Université (S.U.), Pierre et Marie Campus in the center of Paris. The candidate will integrate the MLIA team (Machine Learning and Deep Learning for Information Access) at ISIR (Institut des Systèmes Intelligents et de Robotique). Document attaché : 202505191314_2025-05-01-PhD-Description-Generative-models-Physics.pdf Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : Laboratoire Informatique d’Avignon avec codirect Durée : 3 ans Contact : rosa.figueiredo@univ-avignon.fr Date limite de publication : 2025-12-31 Contexte : ANR project EVA – EValuating gender policies in academia through the Analysis of scientific collaboration networks. Sujet : https://eva.univ-avignon.fr/wp-content/uploads/sites/34/2025/04/offre.pdf Profil du candidat : • Master’s degree (or equivalent) in Computer Science, Applied Mathematics, Operations Research, or a related field. • Strong ability to write and present research clearly. • Proficiency in Python, R, Julia or C++, with experience in AI and optimization algorithms. • Good understanding of graph theory, machine learning, and network analysis. • Ability to work well in an interdisciplinary team. • Proficiency in English is required, and knowledge of French is an advantage Formation et compétences requises : Adresse d’emploi : LIA, Avignon Document attaché : 202504251721_offreThesis_EVA.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LISTIC Durée : 36 mois Contact : yajing.yan@univ-smb.fr Date limite de publication : 2025-12-31 Contexte : Sujet : Satellite based remote sensing offers a unique source of information to monitor the environnement, with fine spatial resolution, wide coverage and frequent revisit. This enables addressing the challenge of natural hazard monitoring and forecasting, which has a significant societal impact. The inverse modeling of surface displacement is one of the major techniques of exploring the subsurface feature of volcanoes. The traditional Monte Carlo direct search approaches are computational resources and time consuming, thus cannot respond to operational needs. We will explore the potential of deep learning in volcanic inverse modeling with Interferometry Synthetic Aperture Radar (InSAR) for operational monitoring and forecasting of volcanic hazards. The intrinsic ill-posedness of inversions in volcanology and limited amount of labeled InSAR data make this work challenging. We tackle the problem of volcanic model inversion, i.e. to estimate model parameters from surface displacement estimations issued from InSAR by solving an inverse problem. This Ph.D thesis will elaborate on our previous proof-of-concept work where a frugal ResNet model was deployed for the first time to estimate the volume change and depth of a spherical volcanic source (i.e. Mogi) from synthetic InSAR displacement fields. This ResNet model exhibits distinct advantages of computational efficiency over the state-of-the-art Monte Carlo direct search methods. For this thesis, the Ph.D student will use more sophisticated volcanic models (e.g. fracture, numerical boundary element models, etc.) allowing for simulations of displacement fields caused by more complex volcanic sources to further increase the generality of the previously proposed ResNet model. One main effort will be devoted to the improvement of the ResNet model prediction accuracy by increasing training data diversity (e.g. divers SAR acquisition geometries, near field/far field and multi-resolution measurements) and by elaborating more adapted loss functions corresponding to appropriate model properties to optimize (e.g. combination of a loss function of estimated model parameters and a loss function of the reconstructed displacement field). These two latter actions also help minimize the ill-posedness. Real InSAR displacement measurements related to both intrusion and reservoir type worldwide volcanoes will be used to fine-tune the ResNet model trained by synthetic data for further validation in real applications. Profil du candidat : The Ph.D candidate should have good skills in machine learning. Knowledge in inverse problem or geophysics is appreciated. Formation et compétences requises : Adresse d’emploi : LISTIC, 5 chemin de bellevue, 74944, Annecy-le-Vieux Jan 1 Thu 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : DIG team, Télécom Paris Durée : 39 months Contact : nils.holzenberger@telecom-paris.fr Date limite de publication : 2026-01-01 Contexte : Sujet : Hello, We are hiring 2 PhD students and 1 postdoc to work on combining language models with structured data, at Telecom Paris, Institut Polytechnique de Paris. Start date can be between January and March 2026. Large Language Models are amazing, and with our research project, we aim to make them even more amazing! Our project will connect large language models to structured knowledge such as knowledge bases or databases. With this, 1. language models will stop hallucinating 2. language models’ knowledge can be audited and updated reliably, to spot biases and make them more interpretable 3. language models will become smaller and thus more eco-friendly and deployable We work in the DIG team at Telecom Paris, one of the finest engineering schools in France, and part of Institut Polytechnique de Paris — ranked 38th in the world by the QS ranking. The institute is 45 min away from Paris by public transport, and located in the green of the Plateau de Saclay. Check out our Web site to apply: https://suchanek.name/work/research/kb-lm/index.html Fabian Suchanek & Nils Holzenberger Profil du candidat : Formation et compétences requises : Adresse d’emploi : 19 place Marguerite Perey 91120 Palaiseau FRANCE Jan 16 Fri 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IRT SystemX Durée : 36 mois Contact : faicel.chamroukhi@irt-systemx.fr Date limite de publication : 2026-01-16 Contexte : L’IRT SystemX propose une thèse sur l’apprentissage frugal de modèles génératifs multimodaux en contexte industriel. La thèse s’inscrit dans le cadre d’un projet collaboratif sur l’IA Générative pour l’Industrie, mené en partenariat avec notamment Air Liquide et Michelin, et son volet applicatif vise à adresser des cas d’usage industriels liés à la gestion de connaissances techniques en ingénierie de systèmes complexes. Le poste est basé à Palaiseau et la thèse sera inscrite à l’école doctorale STIC de l’Université Paris-Saclay. La thèse est financée pour une durée de 36 mois, avec une rémunération de 2784 € brut/mois, pour un démarrage souhaité début 2026. Voici pdf ci-joint pour plus de détails sur le contexte. Sujet : Apprentissage frugal de modèles génératifs multimodaux en contexte industriel. Le volet applicatif vise à adresser des cas d’usage industriels liés à la gestion de connaissances techniques en ingénierie de systèmes complexes. Voici pdf ci-joint pour plus de détails sur le sujet. Profil du candidat : Le(la) candidat(te) doit justifier d’un Master Recherche (ou formation équivalente avec un intérêt avéré pour la recherche) dans le domaine des sciences des données et de l’Intelligence Artificielle. Formation et compétences requises : Master Recherche ou équivalent en sciences des données et Intelligence Artificielle. Intérêt marqué pour la recherche et goût pour les applications. Solides compétences en inférence statistique et en optimisation. Maîtrise de l’apprentissage profond. Programmation en Python, avec expérience PyTorch/TensorFlow. Des compétences sur les modèles d’IA générative serait un plus. Pour postuler, merci d’envoyer les éléments suivants au format PDF à : faicel.chamroukhi@irt-systemx.fr CV détaillé Lettre de motivation Relevés de notes des deux dernières années d’étude de Master ou de cycle ingénieur Au moins une lettre de recommandation Adresse d’emploi : IRT SystemX, 2 Boulevard Thomas Gobert 91120, Palaiseau Document attaché : 202510310836_Offre-de-These-IRTSystemX-DIT-2-2026-IAG1.pdf Mar 31 Tue 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Criteo AI Lab Paris Durée : 36 mois Contact : p.gallinari@criteo.com Date limite de publication : 2026-03-31 Contexte : As part of its ongoing transformation into an agentic-ready platform, Criteo is spearheading the integration of agentic AI across its full portfolio. These systems are already being deployed to automate internal operations, assist clients in the management and optimization of advertising campaigns, and to power personal shopping agents—autonomous assistants that act on behalf of end-users. These agents must reason, remember, and act autonomously in environments characterized by uncertainty, variability, and scale. To fulfill this vision, one of the most pressing challenges is adaptability. Our agents must function across an extremely heterogeneous client base — each with unique product catalogs, optimization targets, and interface constraints while interacting with users and inferring their intents. Sujet : The objective of the PhD is to explore adaptation strategies to multiple and heterogeneous environments and user segments for an agentic system. In our setting these environments might correspond to different partners characterized by their own catalog, objective and strategy while user segments refer to user preferences or needs. We will restrict our scope to language-only agents and emphasize practical assistant scenarios. In most scenarios, adaptation to new environments and to user intents shall leverage simple and computationally costless strategies, while being able to adapt for scarce data contexts available for these new settings. Adaptation places a significant demand on the system’s memory, which must be more than a static repository of facts. It must be an adaptive memory system, capable of restructuring and reprioritizing information as the user’s context evolves. Therefore, self-adaptation is intrinsically linked to memory management. The goal is to endow the agent with the ability to learn how to manage its own memory in response to a changing environment and user. The PhD will start to investigate different memory strategies and their potential for handling adaptation to new environments and to user interaction. We will explore mechanisms for the agent to develop learned policies for memory operations. Key research questions include: • Learned Retention and Forgetting: How can an agent learn what information is critical to retain versus what is obsolete and should be forgotten or archived? • Adaptive Retrieval Strategies: Can an agent learn the most effective way to query its memory? We will explore how the system can dynamically choose between different retrieval methods (e.g., vector-based RAG, evolving LLM context), based on the task. • Automated Memory Summarization: How can the system “reflect” on its interaction history to create higher-level insights? We will investigate techniques for the agent to periodically summarize streams of memories into more abstract knowledge (e.g., consolidating multiple shopping interactions into a persistent preference like “user prefers sustainable brands”). Adaptation mechanism shall also be an element contributing to the planning mechanism of the agent: how can an agent make decisions when the goal is weakly defined, the feedback is sparse, and the environment varies by client? This is particularly relevant in domains like travel planning or multi-product recommendations, where a “one-size-fits-all” approach is neither feasible nor desirable. To complement memory-based methods, off-line reinforcement learning strategies could be considered. Profil du candidat : We are looking for a motivated researcher with a strong foundation in machine learning, natural language processing, applied maths. Familiarity with large language models, transformers, reinforcement learning, or continual learning will be considered a strong asset. Above all, we are seeking someone who is excited by the challenge of bringing intelligent agents to life in practical, high-impact applications. Formation et compétences requises : Master degree in computer science or applied mathematics, Engineering school. Background and experience in machine learning. Adresse d’emploi : Criteo AI Lab Paris Document attaché : 202510021236_2025-10-Criteo-PhD proposal-Agents-LLMs.pdf
|
Offres de stages
Jun 30 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IMT Atlantique & ENSTA Durée : 6 mois Contact : dorian.cazau@ensta.fr Date limite de publication : 2025-06-30 Contexte : Sujet : IA Non‐Supervisée pour le Suivi de la Biodiversité Marine par Acoustique Passive Sous Marine (IANSPAM) Profil du candidat : Formation et compétences requises : Adresse d’emploi : Brest ‐ IMT Atlantique / ENSTA Document attaché : 202502101141_Stage IANSPAM.pdf Oct 31 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : CRISTAL UMR CNRS 9189 Durée : 6 mois Contact : hayfa.zgaya-biau@univ-lille.fr Date limite de publication : 2025-10-31 Contexte : Le projet IARISQ (projet ANR 2025) vise à développer des modèles d’intelligence artificielle avancés pour prédire la toxicité des particules atmosphériques en fonction de leur composition physico-chimique et de leurs variations spatio-temporelles. Le stage s’inscrit dans une dynamique interdisciplinaire mêlant IA explicable (XAI), gestion de l’incertitude, toxicologie environnementale et données de qualité de l’air. Suite possible : thèse (2026–2029) Le stage pourra évoluer naturellement vers une thèse de doctorat de 3 ans au sein du laboratoire CRISTAL, dans la continuité des travaux réalisés. Le/la doctorant(e) travaillera en lien étroit avec les partenaires ATMO-HDF et LGCgE, sur la modélisation avancée des risques toxiques et l’intégration des modèles IA dans des outils opérationnels de surveillance. Sujet : • Participer à la construction et préparation de bases de données (mesures ATMO-HDF, composition physico-chimique, tests de toxicité). • Déployer des modèles d’apprentissage automatique supervisés et non supervisés pour identifier les caractéristiques les plus influentes sur la toxicité. • Expérimenter des techniques d’explicabilité (SHAP, LIME) et de réduction de dimension (UMAP, PCA). • Contribuer au design d’une première version de pipeline IA à intégrer dans un futur système d’aide à la décision. Profil du candidat : • M2 en informatique, intelligence artificielle, science des données. • Maîtrise de Python, notamment avec les bibliothèques scikit-learn, pandas, PyTorch ou TensorFlow. • Connaissance des modèles de machine learning, des réseaux de neurones et/ou des approches XAI. • Rigueur, autonomie et appétence pour les projets interdisciplinaires (santé, environnement, IA). Formation et compétences requises : • M2 en informatique, intelligence artificielle, science des données. • Maîtrise de Python, notamment avec les bibliothèques scikit-learn, pandas, PyTorch ou TensorFlow. • Connaissance des modèles de machine learning, des réseaux de neurones et/ou des approches XAI. • Rigueur, autonomie et appétence pour les projets interdisciplinaires (santé, environnement, IA). Adresse d’emploi : Centre de Recherche en Informatique, Signal et Automatique de Lille UMR CNRS 9189 CRIStAL Université de Lille – Campus scientifique Bâtiment ESPRIT Avenue Henri Poincaré 59655 Villeneuve d’Ascq https://www.cristal.univ-lille.fr Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : CRISTAL UMR CNRS 9189 Durée : 6 mois Contact : hayfa.zgaya-biau@univ-lille.fr Date limite de publication : 2025-10-31 Contexte : Le projet IARISQ (projet ANR 2025) vise à développer des modèles d’intelligence artificielle avancés pour prédire la toxicité des particules atmosphériques en fonction de leur composition physico-chimique et de leurs variations spatio-temporelles. Le stage s’inscrit dans une dynamique interdisciplinaire mêlant IA explicable (XAI), gestion de l’incertitude, toxicologie environnementale et données de qualité de l’air. Suite possible : thèse (2026–2029) Le stage pourra évoluer naturellement vers une thèse de doctorat de 3 ans au sein du laboratoire CRISTAL, dans la continuité des travaux réalisés. Le/la doctorant(e) travaillera en lien étroit avec les partenaires ATMO-HDF et LGCgE, sur la modélisation avancée des risques toxiques et l’intégration des modèles IA dans des outils opérationnels de surveillance. Sujet : • Participer à la construction et préparation de bases de données (mesures ATMO-HDF, composition physico-chimique, tests de toxicité). • Déployer des modèles d’apprentissage automatique supervisés et non supervisés pour identifier les caractéristiques les plus influentes sur la toxicité. • Expérimenter des techniques d’explicabilité (SHAP, LIME) et de réduction de dimension (UMAP, PCA). • Contribuer au design d’une première version de pipeline IA à intégrer dans un futur système d’aide à la décision. Profil du candidat : • M2 en informatique, intelligence artificielle, science des données. • Maîtrise de Python, notamment avec les bibliothèques scikit-learn, pandas, PyTorch ou TensorFlow. • Connaissance des modèles de machine learning, des réseaux de neurones et/ou des approches XAI. • Rigueur, autonomie et appétence pour les projets interdisciplinaires (santé, environnement, IA). Formation et compétences requises : • M2 en informatique, intelligence artificielle, science des données. • Maîtrise de Python, notamment avec les bibliothèques scikit-learn, pandas, PyTorch ou TensorFlow. • Connaissance des modèles de machine learning, des réseaux de neurones et/ou des approches XAI. • Rigueur, autonomie et appétence pour les projets interdisciplinaires (santé, environnement, IA). Adresse d’emploi : Centre de Recherche en Informatique, Signal et Automatique de Lille UMR CNRS 9189 CRIStAL Université de Lille – Campus scientifique Bâtiment ESPRIT Avenue Henri Poincaré 59655 Villeneuve d’Ascq https://www.cristal.univ-lille.fr Nov 16 Sun 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IRIT (Toulouse) Durée : 5 to 6 months Contact : henrique.goulart@irit.fr Date limite de publication : 2025-11-16 Contexte : Sujet : We are seeking candidates for a 5- to 6-month internship on the analysis and improvement of estimators of low-rank tensor models, with the possibility of a PhD thesis afterwards (a PhD funding is secured). This subject is situated at the interface between mathematics and computer science, having applications in several domains, notably in data science and machine learning. A detailed description can be found at: https://cloud.irit.fr/s/hZnoJgiopaqMkdV Profil du candidat : M2 student strongly motivated by mathematics and its application to statistical inference and machine learning. Prior knowledge on tensor algebra and on random matrix theory are a strong plus. Good communication skills (both oral and written) in English are required, notably for reading, writing and presenting scientific papers. Formation et compétences requises : Adresse d’emploi : IRIT (Institut de Recherche en Informatique de Toulouse), site ENSEEIHT (2 rue Charles Camichel, Toulouse). Nov 21 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Institut d’Astrophysique de Paris Durée : 4 à 6 mois Contact : tchernia@iap.fr Date limite de publication : 2025-11-21 Contexte : La modélisation et la compréhension de l’histoire de l’Univers, depuis le Big Bang jusqu’à aujourd’hui, reposent sur l’évaluation de nos modèles cosmologiques à partir des grands relevés astronomiques (Euclid, DESI…). L’un des objectifs est de simuler la formation des grandes structures afin d’évaluer la robustesse des modèles cosmologiques vis-à-vis des observations. L’Institut d’Astrophysique de Paris (IAP), une Unité Mixte de Recherche (UMR) de Sorbonne Université et du Centre National de la Recherche Scientifique (CNRS), est impliqué dans cette activité. En son sein, l’équipe « Grandes structures et Univers profond » à laquelle le.la stagiaire sera affecté.e a développé le code Simbelmynë, qui permet de : 1. Calculer l’évolution de la répartition de matière noire en résolvant les équations du mouvement de la gravité à l’échelle de l’univers observable (problème à N corps), 2. En déduire une répartition des galaxies dans le ciel, 3. Produire des relevés cosmologiques simulés. Cette chaîne de simulation est appelée à être lancée un très grand nombre de fois pour des paramètres d’entrée variés. C’est pourquoi le respect des contraintes du calcul haute performance (HPC) et la parallélisation des tâches sont des enjeux clés de ce code. Grâce à l’approche sCOLA qui divise la portion d’univers à simuler en morceaux indépendants, il est possible d’adopter une approche hybride entre calculs à mémoire distribuée et à mémoire partagée. Nous souhaitons aujourd’hui le rendre portable sur plusieurs architectures cibles (CPU et GPU). Pour plus de détails sur le contexte scientifique, voici un article de vulgarisation traitant de ce sujet : https://theconversation.com/vers-une-simulation-de-lunivers-sur-un-telephone-portable-137421 Sujet : La.le stagiaire participera au portage de C vers C++ du code Simbelmÿne ainsi qu’au développement de codes de calcul parallèle utilisant des CPU et GPUs. Il/elle se formera au framework Kokkos et l’utilisera afin de produire un code générique compatible avec toutes les architectures cibles. Il/elle mettra ces codes en œuvre à l’aide du cluster de calcul du laboratoire, mettant à disposition CPUs et GPUs. Il/elle travaillera en équipe et versionnera son code à l’aide de Git et produira les tests unitaires et benchmarks garantissant la qualité, la performance et la robustesse de son code. Profil du candidat : Nous recherchons un.e stagiaire de six mois en fin d’études ou césure, en école d’ingénieurs ou master, avec une spécialisation en informatique et si possible en calcul scientifique/HPC. Formation et compétences requises : – Maîtrise du langage de programmation C++, connaissance de python – Savoir adopter une méthodologie de développement collaboratif (Git, tests unitaires…) – Connaître les enjeux de la programmation HPC, notamment la parallélisation des tâches (multithreading, multiprocessing). – Notions de mathématiques appliquées (Transformées de Fourier, Équations aux dérivées partielles…) – Anglais courant (réunions en anglais) – Une formation en physique serait un plus. Adresse d’emploi : 98 bis boulevard Arago, 75014 Paris Document attaché : 202510231604_Fiche de stage HPC Cosmologie.pdf Nov 26 Wed 2025 Offre en lien avec l’Action/le Réseau : SaD-2HN/– — – Laboratoire/Entreprise : Centre de Recherches Historiques (UMR 8558 : EHESS Durée : 6 mois Contact : bertrand.dumenieu@ehess.fr Date limite de publication : 2025-11-26 Contexte : Le musée Carnavalet – Histoire de Paris et les bibliothèques spécialisées de la ville de Paris conservent d’importantes collections d’éphémères. Il s’agit de documents de la vie quotidienne produits par des commerces, des associations ou des particuliers, qui deviennent très rapidement obsolètes : faire-parts, menus, cartes postales, affiches, prospectus, buvards publicitaires, dépliants touristiques, catalogues de vente, programmes de théâtre, images pieuses, sous-bocks, papiers de fruits, etc. La figure 1 présente un exemple d’affiches et de prospectus créés entre 1873 et 1888 et conservés au musée Carnavalet – Histoire de Paris. Chaque éphémère est indexé par des métadonnées récoltées par le musée, décrivant les acteurs de sa production (artiste dessinateur, imprimeur) et les techniques et matériaux mobilisés. Ces informations permettent quelques analyses explicatives sur la chaîne de création, d’impression et de diffusion de ces éphémères, mais qui restent limitées faute de connaissances suffisantes sur les réseaux professionnels des commerçants, artistes et artisans qui y contribuent. Pour peu qu’ils exercent à Paris, ces professionnels ont de bonnes chances d’être recensés dans les annuaires commerciaux de la ville (voir figure 2). Ancêtres des « Pages Jaunes », ces ouvrages compilent, classent, datent et localisent les commerçants, artisans et notables parisiens au sein de longues listes nominatives. Celles de la majorité des annuaires édités entre 1797 et 1914 ont été extraites et transformées en une base de données géographique sérielle durant un précédent projet de recherche. Il est désormais possible d’exploiter les 22 millions d’entrées contenues de cette base pour tenter d’identifier les acteurs de la production d’éphémères et les lier aux collections du musée Carnavalet. Sujet : Le premier objectif de ce stage est donc de croiser les métadonnées des éphémères avec la base des annuaires du commerce parisien au XIXe siècle pour y retrouver les commerçants et artisans ayant concouru à la production des éphémères du musée. Le second objectif consistera à proposer une méthodologie d’analyse de ces métadonnées enrichies pour comprendre comment la création, l’impression et la diffusion des éphémères s’organisait, selon les commanditaires, les imprimeurs ou les types de supports. On pourra, par exemple, étudier l’éventuelle spécialisation des artistes, des imprimeurs, des rues ou des quartiers dans certains types de production ou bien les critères de choix des artistes ou des imprimeurs par les commanditaires : proximité spatiale, recommandation professionnelle, renommée, etc. La première difficulté de ce travail réside dans la création et le peuplement du graphe de connaissances initial à partir des deux sources de données hétérogènes, incomplètes, bruitées, spatiales et temporelles que sont la base des annuaires et les métadonnées des éphémères. Il s’agira donc de proposer une ontologie, guidée par les hypothèses d’analyse des historiens de l’art concernant les réseaux professionnels potentiels des commerçants, artistes et imprimeurs impliqués dans la création des éphémères. Celle-ci devra ensuite être peuplée à partir des données disponibles, ce qui nécessitera un travail de désambiguïsation des commerçants, artistes et imprimeurs. La seconde difficulté sera de proposer une méthodologie d’analyse spatio-temporelle permettant de comprendre le mode de constitution des réseaux professionnels à l’œuvre et leurs dynamiques au cours de la période étudiée. Profil du candidat : Master 2 ou équivalent en humanités numériques, sciences de l’information géographique ou informatique. Le ou la candidat.e doit être un.e étudiant.e inscrit.e dans une université francilienne. Formation et compétences requises : – Analyse de données : connaissances pratiques et théoriques en analyse spatiale. – Web de données : expérience en manipulation de graphes de connaissances, connaissance du liage de données, notions de conception d’ontologies. – Sciences de l’information géographique : maîtrise opérationnelle de QGIS, connaissance de PostGIS, notions en scripting Python pour les SIG. – Un goût pour l’histoire urbaine ou l’histoire de l’art est un atout. Adresse d’emploi : Centre de recherches historiques (UMR 8558 EHESS – CNRS), 54 boulevard Raspail, 75006 Paris Document attaché : 202510211306_StageEphemeres&Annuaires.pdf Dec 2 Tue 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire des 2 Infinis – Toulouse Durée : Flexible Contact : catherine.biscarat@l2it.in2p3.fr Date limite de publication : 2025-12-02 Contexte : Le Laboratoire des 2 Infinis – Toulouse (L2IT) est une unité mixte de recherche (UMR) du CNRS et de l’Université de Toulouse, jeune et dynamique, née en janvier 2020. Les objets d’étude des chercheurs et des ingénieurs du L2IT sont les deux infinis – l’infiniment petit et l’infiniment grand – et les relations entre les phénomènes qui régissent chacun d’entre eux. Le laboratoire est organisé en quatre équipes “Calcul, Analyse et Données”, “Physique Nucléaire”, “Physique des particules” et “Ondes Gravitationnelles”. Nous poursuivons nos recherches au sein de collaborations internationales. Nous sommes actuellement 32 membres, dont 15 permanents qui mettent en place les équipes de recherche. La spécificité du L2IT est son accent sur les méthodes numériques de pointe (IA, calcul HPC, ingénierie logicielle, expertise CUDA) qui accompagnent les travaux d’analyse de données, de modélisation, simulation, et de développements théoriques. Le L2IT est implanté sur un campus dynamique qui regroupe facultés, écoles et laboratoires. Sujet : Trois sujets de stage sont actuellement proposés. Ils sont à l’intersection entre l’IA et nos domaines de recherche en physique fondamentale (physique des particules, cosmologie, ondes gravitationnelles). Pour les détails des sujets, veuillez vous référer à notre site internet : https://www.l2it.in2p3.fr/en/emplois-et-stages/internships-2026/ Profil du candidat : Formation et compétences requises : Adresse d’emploi : Laboratoire des 2 Infinis – Toulouse, Maison de la Recherche et de la Valorisation, 75 cours des Sciences, 31400 Toulouse, France Dec 10 Wed 2025 Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : Institut de Science des Données de Montpellier / C Durée : 5-6 mois Contact : gino.frazzoli@umontpellier.fr Date limite de publication : 2025-12-10 Contexte : Le sommeil, bien que d’apparence triviale, constitue un état biologique complexe, difficile à quantifier sans recourir à une approche multimodale intégrant notamment l’enregistrement de l’activité cérébrale (EEG). Cette contrainte technologique rend l’étude du sommeil exigeante en conditions naturelles. Comprendre comment les animaux dorment dans leur environnement, en particulier dans un cadre social, représente ainsi un défi majeur. Chez les espèces grégaires comme le babouin, le sommeil ne se résume pas à un phénomène individuel : il s’organise dans un contexte collectif, influencé par les interactions sociales, la hiérarchie et la vigilance partagée. Le projet ERC COSLEEP (dirigé par Meg Crofoot, Max Planck Institute of Animal Behavior) s’attache à explorer cette dimension sociale du sommeil en conditions écologiques réelles, grâce à des suivis simultanés du comportement, de la position et de l’activité physiologique d’individus vivant à l’état sauvage. Le stage proposé s’inscrit dans cette collaboration entre le Centre d’Écologie Fonctionnelle et Évolutive (CEFE), l’Institut de Science des Données et le Max Planck Institute, et portera sur l’analyse de données de sommeil (activité cérébrale, musculaire, oculaire, accéléromètre et vidéo) afin de caractériser la structure et la qualité du sommeil dans un contexte social et écologique réel, et de développer un modèle prédictif fiable basé sur les signaux accélérométriques. Sujet : Le stage aura pour objectif de contribuer à la mise au point d’outils d’analyse automatisée du sommeil chez le babouin à partir de séries temporelles multimodales. Dans un premier temps, le ou la stagiaire évaluera la cohérence du scorage manuel du sommeil réalisé par plusieurs spécialistes à partir d’enregistrements physiologiques (EEG, EMG, EOG, accéléromètre, vidéo), afin de quantifier le niveau d’accord inter-experts et d’établir une base de données de référence. Dans un second temps, il s’agira de tester et d’adapter des modèles d’apprentissage automatique existants (tels que Somnotate ou USleep) pour obtenir un algorithme de scorage automatique capable de s’ajuster aux caractéristiques propres aux signaux enregistrés chez le babouin. Enfin, le stage visera à développer un modèle prédictif du sommeil à partir des signaux d’accéléromètre seuls, en s’appuyant sur les labels dérivés de l’activité cérébrale. Ce modèle permettra à terme d’estimer les phases et sous-états du sommeil à partir de capteurs portés sur collier, ouvrant la voie à une analyse non invasive du sommeil en milieu naturel. Profil du candidat : Le ou la candidat(e) devra posséder une formation en analyse de données expérimentales, data science, ou domaine connexe avec une appétence pour les neurosciences, sciences cognitives, bio-informatique, ou l’écophysiologie. Une bonne familiarité avec le traitement de signaux temporels, des compétences en programmation (Python, Matlab ou R) et des compétences en méthodes d’apprentissage automatique (réseaux de neurones, classification supervisée et modèles de deep learning) seraient un atout majeur. Le ou la stagiaire devra faire preuve de rigueur, d’autonomie et de curiosité scientifique, ainsi que d’un goût marqué pour l’analyse de données et le travail interdisciplinaire, à l’interface entre neurosciences, écologie comportementale et science des données. Une aisance en anglais scientifique (lecture et échanges techniques) sera également souhaitée. Formation et compétences requises : • Maîtrise de Python (NumPy, Pandas, Scikit-learn, PyTorch). Des notions en Matlab sont appréciées. • Connaissances en statistiques, apprentissage automatique et deep learning. • Intérêt pour les méthodes utilisées dans les modèles de scorage automatique du sommeil : o USleep : réseau profond combinant CNN inspiré de U-net pour la classification EEG/EMG. https://www.nature.com/articles/s41746-021-00440-5 o Somnotate : approche probabiliste (HMM + LDA) intégrant la dynamique temporelle du sommeil. https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1011793 • Intérêt à développer des compétences en analyse de signaux physiologiques (EEG, EMG, EOG, accélérométrie). • Notions en validation de modèles et évaluation inter-experts (Kappa, ICC, …). • Rigueur, autonomie, et intérêt pour les approches interdisciplinaires (neurosciences, écologie, data science). • Bon niveau d’anglais scientifique (lecture et communication). Adresse d’emploi : Case courrier, 13004 Pl. Eugène Bataillon Bât. 4, 34095 Montpellier Cedex 5 Document attaché : 202511030916_Analyse_donnees_physiologiques_babouins_CEFE_ISDM_Montpellier.pdf Dec 15 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : BRGM Durée : 6 mois Contact : c.gracianne@brgm.fr Date limite de publication : 2025-12-15 Contexte : Rejoindre le Bureau de Recherches Géologiques et Minières (BRGM), c’est intégrer l’établissement public français de référence dans les sciences de la Terre, qui rassemble 1000 experts passionnés dans 29 implantations en France métropolitaine et en Outre-mer. Le BRGM œuvre à la connaissance du sous-sol pour répondre aux grands défis environnementaux, à travers des projets scientifiques innovants et à fort enjeu sociétal. Dans le cadre d’un programme de recherche dédié à l’aléa sismique à Mayotte, l’objectif est de détecter et cartographier les interfaces géologiques responsables de l’effet de site, phénomène amplifiant localement les ondes sismiques. Après une phase exploratoire sur trois sites pilotes, le projet vise désormais l’automatisation de cette détection à l’échelle de l’île à partir de données électromagnétiques aéroportées (AEM). Sujet : Dans le contexte volcanique et sismique de Mayotte, la présence d’interfaces géologiques marquant des contrastes lithologiques importants (passage de couches dures à meubles) joue un rôle majeur dans l’amplification locale des ondes sismiques. Identifier ces interfaces à grande échelle est essentiel pour la cartographie de l’aléa sismique. Le BRGM a conduit une première phase de détection manuelle sur trois zones test via l’analyse de données AEM (résistivités), complétée par une phase d’automatisation sur l’ensemble de l’île. Les premiers tests sur des modèles supervisés se sont révélés insuffisants, notamment pour prédire les interfaces peu représentées. Une approche alternative consistant à reformuler le problème comme une tâche de segmentation d’image avec un réseau U-Net 2D a permis de mieux exploiter la continuité spatiale des profils AEM. Cependant, la validation de ce modèle a montré des limites,avec une concentration des erreurs dans certaines profondeurs critiques (5-10 m et 20-40 m), rendant les performances trop optimistes. L’objectif du stage est de continuer ces développements en comparant plusieurs méthodologies avancées pour la détection automatisée de ces interfaces géologiques à partir des profils AEM. Les approches testées incluront : – des modèles classiques améliorés (RF, CNN) ; – des approches topologiques (TDA) pour quantifier l’incertitude structurelle ; – des approches guidées par la physique (PINNs) intégrant des contraintes géologiques Le ou la stagiaire devra construire des baselines reproductibles, définir un protocole d’évaluation robuste, comparer les performances des modèles sur l’ensemble de l’île, et surtout évaluer leur capacité à corriger les erreurs récurrentes identifiées sur les zones critiques (Dembeni, Longoni). Une attention particulière sera portée à la localisation des faux positifs/négatifs en profondeur. L’analyse des résultats par cartographie d’erreurs enrichira les réflexions sur la généralisation des approches IA en géosciences. Profil du candidat : Vous êtes autonome, curieux·se et rigoureux·se, avec une capacité à structurer et documenter vos analyses. Vous êtes à l’aise pour explorer, prétraiter, visualiser et interpréter des jeux de données complexes. Vous accordez une attention particulière à la robustesse méthodologique et êtes capable d’évoluer dans un environnement de recherche. Doté·e d’un bon relationnel, vous savez collaborer au sein d’une équipe pluridisciplinaire, en lien étroit avec des spécialistes du domaine (géologues, géophysiciens, data scientists). Vous faites preuve de rigueur scientifique, d’esprit critique et de qualités de communication, à l’écrit comme à l’oral. Formation et compétences requises : Formation de niveau Bac+5 : Master 2 ou dernière année d’école d’ingénieur, avec spécialisation en data science, intelligence artificielle, mathématiques appliquées ou géosciences numériques. Solides bases en apprentissage automatique : régression, classification, réseaux de neurones. Maîtrise du langage Python et des bibliothèques standards en data science : scikit-learn, PyTorch ou TensorFlow, NumPy, Pandas, Matplotlib. Une première expérience avec des architectures convolutives (CNN) ou de segmentation (U-Net) est un atout. Une familiarité avec les problématiques de traitement de données géospatiales ou géophysiques est appréciée. Des connaissances en Topological Data Analysis (TDA) ou en Physics-Informed Neural Networks (PINNs) seraient un plus, mais peuvent être développées durant le stage. Intérêt pour les notions de validation rigoureuse, d’incertitude, de reproductibilité et de qualité des données. Adresse d’emploi : 3 avenue Claude Guillemin, 45000 Orléans Document attaché : 202511060727_Stage_BRGM_2026.pdf Offre en lien avec l’Action/le Réseau : RECAST/– — – Laboratoire/Entreprise : LIMOS, UMR 6158 / Mines Saint-Étienne Durée : 4-6 mois Contact : maxime.lefrancois@emse.fr Date limite de publication : 2025-12-15 Contexte : Physical quantities form an important part of what is represented in scientific data, medical data, industry data, open data, and to some extent, various private data. Whether it is distances, speeds, payloads in transportation, concentrations, masses, moles in chemistry, powers, intensities, voltages in the energy sector, dimensions of furniture, weights, heights of people, durations, and many others in health, there is a need to represent physical quantities, to store them, to process them, and to exchange them between information systems, potentially on a global scale, often on the Internet and via the Web. Sujet : In this internship, we seek to precisely define a way to unambiguously represent physical quantities for the Web of Data. More precisely, we will study the proposals made to encode physical quantities in the standard data model of the Semantic Web, RDF. We will be particularly interested in the use of a data type dedicated to this encoding, probably adapted from the proposal of Lefrançois & Zimmermann (2018) based on the UCUM standard. Having established a rigorous definition of the data type (possibly its variants, if relevant), we will focus on implementing a module that can read/write and process physical quantities and their operations within the RDF data manipulation APIs, for the management, querying and reasoning with knowledge graphs containing physical quantities. The ambition is that, on the one hand, the specification will become in a few years a de facto standard, before perhaps becoming a de jure standard; and that, on the other hand, the implementation will be the reference allowing to compare the compliance levels of other future implementations. This study should lead to the publication of a scientific paper in a high impact scientific journal. References Maxime Lefrançois and Antoine Zimmermann (2018). The Unified Code for Units of Measure in RDF: cdt:ucum and other UCUM Datatypes. In The Semantic Web: ESWC 2018 Satellite Events – ESWC 2018 Satellite Events, Heraklion, Crete, Greece, June 3-7, 2018, Revised Selected Papers, volume 11155 of the Lecture Notes in Computer Science, pp196–201, Springer. Gunther Shadow and Clement J. McDonald. The Unified Code for Units of Measure. Technical report, Regenstrief Institute, Inc, November 21 2017. Profil du candidat : Master 2 students in computer science To apply, please submit by email or in an online file repository your CV, motivation letter, university transcripts, and possibly letters of recommendation. The motivation letter must explain why you are interested in this topic and why you are qualified to work on this topic. Formation et compétences requises : Equivalent of a M2 level in CS, with knowledge of Semantic Web technologies. Also, the candidate must have either very good programming skills in Java, or very good aptitude in formal and abstract thinking. Adresse d’emploi : Mines Saint-Étienne, Institut Henri Fayol, 29 rue Pierre et Dominique Ponchardier, 42100 Saint-Étienne, France Dec 30 Tue 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Centre Génie Industriel, IMT Mines Albi Durée : 6 mois Contact : myriam.lamolle@mines-albi.fr Date limite de publication : 2025-12-30 Contexte : Ce stage s’inscrit dans le projet TABGHA qui se veut un outil de génération démultiplié de concepts hautement valorisables afin de promouvoir l’innovation avec l’aide du CGI (Centre de Génie Industriel) d’IMT Mines Albi (cgi.mines-albi.fr) et le LIASD, Université Paris 8. Sujet : Face à la méconnaissance des cultures innovations susceptibles de créer des ressources et le peu d’étude sur la valorisation économique des recherches (spin off, licence, prestation), le transfert de technologie devient crucial. Pour cela, il faut, à partir d’une technologie générique (souvent sur étagère), multiplier les cas applicatifs (marchés d’atterrissage) pour accroitre les chances de valorisation (et aussi poursuivre les développements). À ce jour, de nombreuses méthodes existent pour générer ces différents cas applicatifs : design thinking, analyse fonctionnelle… Aucune d’entre elles ne faisant l’unanimité, le projet vise à développer une plateforme open-source en « Knowledge As A Service » (KaaS) comme écosystème digital fondé sur des composants logiciels qui se combinent pour collaborer de façon à permettre une évolution graduelle du système au travers de nouvelles contributions et de nouveaux composants fournis par la communauté. L’objectif sous-jacent est de découvrir dans la base de connaissance constituée des connaissances cachées et de déterminer des analogies afin d’aider des décideurs à trouver de nouveaux domaines d’application de leur concept/produit ou à créer de nouveaux concept/produit. Vous contribuerez à lever un des verrous scientifiques du projet : concevoir un ou des algorithmes d’alignement de méthodes de design thinking fondés sur l’analyse structurelle et sémantique de graphes de connaissances (ou ontologie modulaire). Objectifs concrets : 1. Modéliser sous forme d’une ontologie les méthodes C-K, Vianeo (voire TriZ1) ; 2. En suivant une méthode scientifique, concevoir et implémenter des algorithmes permettant d’aligner semi-automatiquement les méthodes citées : les classes, les relations entre ces classes, etc. en explicitant les règles de transformation. Peupler la base de connaissance et évaluer les algorithmes sur le mini-cas d’étude réaliste ; 3. Créer les IHM pour offrir les services : a) de choix de la méthode par laquelle le projet d’innovation sera développé ; b) ou d’hybridation de méthodes pour une approche multi-points de vue ; 4. Rédiger un article de conférence internationale avec l’équipe d’encadrement. Profil du candidat : Bac+5 (Master 2 ou dernière année d’école d’ingénieur) en Informatique, Mathématiques Appliquées ou domaine connexe Formation et compétences requises : Compétences techniques indispensables : • Maîtrise des concepts de l’IA neuro-symbolique ; • Capaciter à conceptualiser des méthodes complexes • Maîtrise d’outils et méthodes d’analyse de graphes • Excellente compréhension écrite, bonne expression (lecture/rédaction d’articles) et bonne compréhension orale en anglais Qualités personnelles attendues • Capacité à proposer des idées algorithmiques dès l’entretien • Être moteur dans les échanges scientifiques et la validation d’idées • Goût pour la formalisation mathématique et l’expérimentation méthodique • Appréciation pour la recherche bibliographique Un plus : • Expérience en recherche (stage labo, projet R&D…) • Connaissance des ontologies et des logiques de description • Intérêt pour les systèmes à base de raisonnement Adresse d’emploi : IMT Mines Albi (Centre de génie industriel), Albi (81) Document attaché : 202511171603_offreStageM2_sujet1_2026.pdf Dec 31 Wed 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : CIRAD – UMR TETIS Durée : 6 mois Contact : roberto.interdonato@cirad.fr Date limite de publication : 2025-12-31 Contexte : Food systems are highly interconnected between countries on a global scale, as shown by recent disruptions such as the war in Ukraine and the global pandemic. Food flows are vulnerable to shocks, and these disruptions influence food prices, which in turn affect food consumption patterns. This has had a significant impact on people’s diets, particularly in underdeveloped countries where food security is already fragile. However, scientists and policy-makers lack the data and tools to identify weak points in food flows and build food systems resilient to shocks and disruptions. While considerable progress has been made using Earth Observation data to map crop locations and agricultural productivity (e.g. crop yields), little attention has been paid to the intermediate stages of the workflow – distribution, processing and markets – which are key to understanding and modeling how food moves from production to consumption. Additionally, numerous geospatial datasets, such as OpenStreetMap, are publicly accessible and provide valuable information on land use and land cover. Thanks to advances in artificial intelligence and its application to Earth Observation data, continuously collected satellite images on a global scale, combined with meteorological data, make it possible to monitor food systems in real time. Deep learning models, capable of capturing complex, non-linear relationships, and multimodal algorithms integrating data from a variety of sources, are opening up new perspectives in this field. This internship proposes to exploit multi-temporal and multi-resolution Earth observation data, by combining them with learning models, to monitor food systems, estimate agricultural yields and analyze their links with market prices. This internship focuses on developing machine learning approaches to analyze food flows in Rwanda, in relation to food security situation in the country, by using comprehensive market data and geospatial information. Food flows often deviate from optimal distribution patterns due to infrastructure constraints, market dynamics, and socio-economic factors. For example, a certain product (e.g., potatoes) grown in northern regions may follow suboptimal routes to reach southern markets. By modeling both ideal and actual food flows, we can identify bottlenecks and opportunities to improve food security. Sujet : Missions : The project aims to understand the relationship between food production locations, distribution networks, and market accessibility to inform food security policies. More specifically, the final task is to build a machine learning model able to predict the probability that a certain item is sold in a specific market, based on production and distribution data. The project leverages two primary datasets: · Public Market Dataset: 1.2 million items across 70 markets covering 10 types of food items. · CGIAR/IITA Survey Database: A dataset collected by the IITA (International Institute of Tropical Agriculture) including monthly data from 7,000 vendors across 67 markets in all districts of Rwanda, including food quality assessments and detailed market information. These datasets will be complemented by geospatial data including OpenStreetMap (OSM) infrastructure data, land cover information, and Earth observation data (NDVI and other spectral indices). The main tasks to address during the internship will be: 1. Database Integration and Market Mapping a. Merge the public market dataset with CGIAR/IITA survey data to create a comprehensive market database b. Map which specific food items are sold in which markets 2. Geospatial Data Integration a. Incorporate OpenStreetMap data to understand transportation networks and market accessibility b. Integrate land cover and agricultural production data to identify food production zones c. Process Earth observation data (NDVI, meteorological data) to assess agricultural productivity d. Map the complete food system from production areas to consumption markets 3. Machine Learning Model Development a. Develop predictive models to estimate the probability that specific food items will be available in particular markets b. Compare actual food flows with modeled optimal flows to identify inefficiencies c. Test developed models against baseline methodologies and state-of-the-art approaches 4. Writing of the internship report (in English) to capitalize on the work carried out with a view to a possible scientific publication. If possible, also release associate code and data. Profil du candidat : Skills required : – Programming skills – Interest in data analysis – Scientific rigor – Curiosity and open-mindedness – Analytical, writing and summarizing skills How to apply : Send CV, cover letter and M1 (or 4th year) transcript to : simon.madec@cirad.fr , roberto.interdonato@cirad.fr specifying as e-mail subject “CANDIDATURE STAGE DIGITAG”. Additional Information : – Duration of 6 months, starting February 2025 – Remuneration: CIRAD salary scale, ~600 euros/month – The internship will take place at CIRAD, in the UMR TETIS (Territory, Environment, Remote Sensing and Spatial Information), located at the Maison de la Télédétection in Montpellier. – The internship will be carried out in collaboration with Assistant Professor Claudia Paris and Yue Dou, currently working at the ITC Faculty of Geographic Information Science and Earth Observation, University of Twente, Netherlands. Formation et compétences requises : Skills required : – Programming skills – Interest in data analysis – Scientific rigor – Curiosity and open-mindedness – Analytical, writing and summarizing skills How to apply : Send CV, cover letter and M1 (or 4th year) transcript to : simon.madec@cirad.fr , roberto.interdonato@cirad.fr specifying as e-mail subject “CANDIDATURE STAGE DIGITAG”. Additional Information : – Duration of 6 months, starting February 2025 – Remuneration: CIRAD salary scale, ~600 euros/month – The internship will take place at CIRAD, in the UMR TETIS (Territory, Environment, Remote Sensing and Spatial Information), located at the Maison de la Télédétection in Montpellier. – The internship will be carried out in collaboration with Assistant Professor Claudia Paris and Yue Dou, currently working at the ITC Faculty of Geographic Information Science and Earth Observation, University of Twente, Netherlands. Adresse d’emploi : 500 rue Jean François Breton, 34090, Montpellier Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Sesstim, Aix Marseille Université Durée : 6 Mois Contact : raquel.urena@univ-amu.fr Date limite de publication : 2025-12-31 Contexte : Ce stage s’inscrit dans un projet de recherche à l’interface de l’intelligence artificielle et de la santé, mené au sein d’une équipe multidisciplinaire réunissant informaticiens, médecins, biostatisticiens et chercheurs en santé publique. L’objectif global est de modéliser et d’analyser les parcours de soins longitudinaux des patients à partir de données massives issues des bases médico-administratives (SNDS). Ces travaux permettront d’identifier des profils de patients, des ruptures de parcours et des facteurs de réhospitalisation, afin d’améliorer la compréhension et la personnalisation de la prise en charge. Le stage se déroulera au sein de l’équipe CaLIPSo / SESSTIM (Aix–Marseille Université), sur le IPC à Marseille, dans un environnement stimulant à l’interface de l’IA, de la santé et des sciences sociales. Le stagiaire sera encadré par Raquel URENA, maître de conférences en informatique especialiste en IA et santé, et travaillera en interaction directe avec des chercheurs en IA, des épidémiologistes et des cliniciens de de l’Institut Paoli-Calmettes, sur des données massives réelles à fort impact sociétal. Sujet : Objectifs du stage Le stagiaire participera à la conception et au développement de modèles innovants de modélisation automatique des trajectoires de soins en utilisant des techniques avancées de representation learning et de Large Language Models (LLMs) appliquées aux données de santé. Les principales missions incluent : • Extraction et structuration de trajectoires temporelles à partir de données massives (diagnostics, actes, hospitalisations, prescriptions). • Développement de représentations patient à l’aide de modèles de deep learning. • Comparaison et évaluation de différentes approches de representation learning. • Identification de profils de soins, visualisation et interprétation des trajectoires representations. Profil du candidat : Compétences requises • Solides connaissances en machine learning, representation learning et modélisation de séries temporelles. • Maîtrise de Python (Pandas, NumPy, Scikit-learn, PyTorch/TensorFlow) et des bases de données SQL. • Langue française indispensable, niveau avancé en anglais (oral et écrit). • Excellentes capacités de rédaction scientifique et de communication. • Curiosité, rigueur scientifique, autonomie et goût pour le travail interdisciplinaire. Environnement de travail Formation et compétences requises : M2 Informatique/ IA/ Mathémathiquées appliqués Adresse d’emploi : 232 Bd de Sainte-Marguerite, 13009 Marseille Jan 15 Thu 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire Oceanographique de Villefranche-sur-me Durée : 6 mois Contact : enza.labourdette@imev-mer.fr Date limite de publication : 2026-01-15 Contexte : Le phytoplancton regroupe les micro-organismes marins dérivant au gré des courants et capables de produire de la matière organique grâce à la photosynthèse. Il joue un rôle essentiel dans le fonctionnement du système Terre : il contribue à environ la moitié de la photosynthèse planétaire, participe au stockage du carbone à l’échelle climatique via la pompe biologique, et constitue la base des réseaux trophiques marins. Mieux comprendre la répartition et la diversité du phytoplancton, en lien avec les conditions physiques et biogéochimiques de son environnement, est donc fondamental. Cela permet d’estimer plus finement sa biomasse, son rôle dans les cycles biogéochimiques et d’anticiper les réorganisations induites par les changements climatiques et océaniques globaux. Cependant, l’observation directe du phytoplancton à grande échelle demeure limitée, car elle repose sur des campagnes en mer et des prélèvements coûteux. Les données HPLC (High Performance Liquid Chromatography), qui permettent d’analyser les pigments photosynthétiques pour quantifier précisément les communautés phytoplanctoniques, offrent une référence fiable, mais restent coûteuses et spatialement limitées. Pour étendre ces observations ponctuelles à l’échelle globale, les satellites d’observation de la couleur de l’océan constituent un outil clé. Les algorithmes empiriques actuels permettent d’estimer la composition du phytoplancton à partir des réflectances optiques , mais ils présentent encore une marge d’erreur importante et ne capturent pas toujours la complexité spatiale et temporelle des structures océaniques (fronts, tourbillons, etc.). Sujet : Ce stage s’inscrit dans la continuité d’une thèse centrée sur la prédiction des Phytoplankton Functional Types (PFTs) à partir de la couleur de l’eau et de variables satellitaires à l’aide de méthodes de deep learning. L’objectif principal est d’améliorer la robustesse et la précision des prédictions en intégrant explicitement la dimension temporelle des données au moyen de méthodes avancées de deep learning. Concrètement, cela consiste à exploiter les images satellites des jours ou des semaines précédentes pour estimer la quantité et la composition du phytoplancton à un instant t donné. En effet, la croissance du phytoplancton est un processus dynamique, et son état actuel dépend fortement des états antérieurs du système. Un pipeline opérationnel est déjà en place : – les données satellitaires et in situ ont été extraites et prétraitées, – des modèles de type MLP (Multi-Layer Perceptron) ont été développés et évalués, – une première étude de la sensibilité, en termes de qualité des prédictions, aux variables d’entrée et à l’architecture du modèle a été menée, – une seconde étude, sur l’intégration de la dimension spatiale dans les données d’entrée, est en cours. Le stage consistera à poursuivre et à approfondir ces travaux, notamment en : – explorant de nouvelles architectures de deep learning (par ex. RNN) permettant de mieux capturer la structure temporelle des données ; – évaluant l’impact de cette intégration sur la qualité des prédictions de PFTs ; – affinant l’interprétation des modèles pour mieux comprendre les liens entre conditions environnementales et composition des communautés phytoplanctoniques. Ce travail contribuera directement à l’amélioration des produits satellitaires de distribution phytoplanctonique à l’échelle globale, utiles pour le suivi de la santé des écosystèmes marins et la gestion durable des ressources océaniques. Objectifs du Stage : – Compréhension de la problématique biologique. – Étude des relations entre les propriétés optiques de l’eau et les PFTs. – Prise en main et optimisation du pipeline existant, de la sélection et du traitement des données jusqu’à leur exploitation dans un modèle de deep learning. – Analyse de la variabilité spatio-temporelle : quantifier l’impact de l’intégration des dimensions spatiale et temporelle sur la prédiction des PFTs. – Mise en forme et valorisation des résultats pour une utilisation dans des travaux de recherche à publier. Profil du candidat : Formation et compétences requises : – Intérêt marqué pour la recherche et les sciences marines. – Maîtrise du langage Python. – Connaissances en deep learning (PyTorch). – Des notions en écologie, biologie marine ou océanographie seraient un atout. Adresse d’emploi : 181 chemin du Lazaret Villefranche-sur-Mer, France Document attaché : 202511140931_STAGE 2026 – ANNONCE.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : ICube Durée : 5-6 mois Contact : florence.leber@engees.unistra.fr Date limite de publication : 2026-01-15 Contexte : The restoration or naturalization of hydro-ecosystems is a major challenge for the coming years in order to protect and preserve the quality and quantity of river water. Many restoration works – both recent and historical – have generated large amounts of textual documentation (reports, archival documents, project plans, regulations, scientific articles) and visual material (maps, drawings, aerial/satellite imagery, photographs, cross-sectional charts). However, that material is often unstructured, scattered across institutions, in multiple languages, and not organized to support comparative analysis, learning, or decision-making effectively. Sujet : The main research task involves applying and refining VLMs to extract complementary information from visual and textual data. The VLMs should recognize and describe restoration structures, spatial configurations, and temporal stages (before, during, and after restoration) from images. They should extract objectives, methodologies, outcomes, and environmental parameters from text. A key scientific challenge lies in the multi-modal alignment of information linking visual elements and textual references to produce consistent and interpretable outcomes. Building on these results, the internship will contribute to the enrichment of an already existing structured knowledge model (ontology), describing restoration cases through key properties including intervention type, environmental context, methods, results, constraints, and costs. In addition to enriching the knowledge model, another key point is populating the knowledge model by constructing knowledge graphs with information extracted from images and text, ensuring querying, comparison, and visualization by researchers and practitioners. Profil du candidat : Knowledge on data science methods, knowledge representation and reasoning, knowledge graphs. Languages: Python, java, owl/sparql. Interest in the application domain, ability to work with experts who are not computer scientists would be appreciated. Formation et compétences requises : Student about to graduate a Master or Engineer (Bac + 5) with a specialization in Computer Science. Adresse d’emploi : ICube — 300 bd Sébastien Brant – CS 10413 – F-67412 Illkirch Cedex Meetings at ENGEES, 1 cour des cigarières, Strasbourg. Document attaché : 202511141617_Sujet_stage_TETRA_VLM.pdf Jan 16 Fri 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : PRISME / Université d’Orléans Durée : 6 mois Contact : youssef.fouzai@etu.univ-orleans.fr Date limite de publication : 2026-01-16 Contexte : Ce stage s’inscrit dans le cadre du projet régional CERES, porté par le BRGM en partenariat avec le laboratoire PRISME de l’Université d’Orléans, Thélem Assurances et l’Agglomération de Blois. L’objectif global du projet est de caractériser grâce à des techniques d’intelligence artificielle les éléments exposés du territoire du Centre-Val de Loire face aux risques naturels. On s’appuie sur des images satellitaires, d’autres issues de Google Street View (GSV )et des données cartographiques. Sujet : Dans le cadre du stage, les travaux à effectuer visent à approfondir l’analyse des façades de bâtiments, afin de produire des éléments exploitables pour caractériser leur vulnérabilité face aux risques naturels dont le retrait/gonflement argileux qui fissure les constructions. Une façade contient de nombreux indicateurs de vulnérabilité auxquels l’expert attache une grande attention comme la surface et la position des portes et fenêtres ou la géométrie du bâtiment, pour l’affecter à une classe de vulnérabilité. L’exploitation des images GSV utilisera des modèles deep learning pour détecter les façades dans les images et extraire des caractéristiques permettant d’en déduire un niveau de vulnérabilité Les résultats du stage seront exploités dans le cadre de la thèse du doctorant qui participera à l’encadrement du stagiaire. Profil du candidat : BAC+5 (Master 2/ école ingénieur) en informatique. Formation et compétences requises : BAC+5 (Master 2/ école ingénieur) en informatique avec de bonnes connaissances en traitement d’images, la maîtrise de la programmation Python (Pandas, NumPy, Scikitlearn, PyTorch/TensorFlow) ainsi qu’en apprentissage profond et un bon niveau d’anglais. Quelques connaissances en Systèmes d’Information Géographique (SIG) seraient également appréciées. Adresse d’emploi : Polytech, 12 Rue de Blois, 45100 Orléans Document attaché : 202510311400_Stage Master_PRISME_CERES_v1.pdf Jan 31 Sat 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIAS Durée : 6 mois Contact : baron@ensma.fr Date limite de publication : 2026-01-31 Contexte : Bimedia, filiale du groupe Orisha, est une entreprise spécialisée dans les solutions destinées aux points de vente de proximité (bureaux de tabac, boulangeries, etc.). Son offre repose sur un ensemble de services comprenant du matériel (caisses enregistreuses à double écran : le premier pour le commerçant et le second pour le client final), un logiciel d’encaissement, des solutions dématérialisées (cartes prépayées, etc.), ainsi que des dispositifs d’animation commerciale via des publicités diffusées sur l’écran client des caisses. Si le point de vente est identifié, le client final, lui, ne l’est pas. Pour pallier cette limite, une initiative récente baptisée BMyShop 1, proposée par Bimedia sous la forme d’une application mobile, permet d’associer certains clients finaux grâce à un programme de fidélité. Les informations collectées se limitent aux données strictement nécessaires (prénom, nom, âge) en conformité avec la réglementation (RGPD). Toutefois, cette base de clients finaux identifiés reste restreinte par rapport au volume de transactions réellement effectuées dans les commerces par des clients finaux anonymes, ce qui pose un défi scientifique pour exploiter des données partielles et anonymisées afin de caractériser, enrichir ou déduire des profils clients représentatifs. Bimedia s’est associée au laboratoire LIAS, dans le cadre d’un projet de recherche appliquée. Trois enseignants-chercheurs et un ingénieur de recherche encadreront un étudiant de Master 2 (université ou école d’ingénieurs). Le travail attendu visera à développer des techniques d’apprentissage automatique (clustering, apprentissage semi-supervisé, génération de données synthétiques, intégration de données externes, etc.) pour construire des profils représentatifs tout en garantissant l’anonymat des participants. Pour comparer sa proposition avec l’état de l’art, l’étudiant devra identifier des bancs d’essai adaptés ou en définir un nouveau. Un objectif secondaire consistera à calculer un indice de confiance sur le profil établi en utilisant la théorie des modèles probabilistes. Sujet : L’objectif de ce stage est d’explorer des approches d’analyse et d’enrichissement de données à partir des bases transactionnelles (l’historique d’achats) issues d’une part des clients identifiés via l’application BMyShop et, d’autre part, des clients anonymes. Le stage visera à définir des techniques permettant de caractériser et d’associer des profils clients à partir de données partielles : – élaboration de modèles prédictifs basés sur l’état de l’art et adaptés aux besoins spécifiques de Bimedia ; – évaluation des différents modèles obtenus ; – calcul d’indices de confiance sur les prédictions. Si possible, les techniques développées devront mener à des modèles explicables pour que les analystes métiers de Bimedia puisse comprendre et accorder une certaine confiance aux résultats obtenus. À noter que la réalisation d’un prototype de faisabilité sera demandé. Il ne s’agit pas de développer un logiciel industriel, qui lui sera à la charge de l’entreprise. L’entreprise souhaite juste s’assurer de la faisabilité technique et scientifique de la démarche proposée. Profil du candidat : Le candidat doit être en Master 2 en Informatique ou en dernière année de préparation d’un diplôme d’ingénieur spécialité Informatique. Formation et compétences requises : Une bonne connaissance du langage de programmation Python et des bibliothèques usuelles d’apprentissage automatique est requise. Un bon niveau en français est fondamental. Adresse d’emploi : https://www.lias-lab.fr/jobs/2026_lias_idd_profilsclients_fr.pdf Document attaché : 202511071103_2026_lias_idd_profilsclients_fr.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire d’Informatique et Systèmes – LIS – UMR Durée : 5 à 6 mois Contact : marc-emmanuel.bellemare@univ-amu.fr Date limite de publication : 2026-01-31 Contexte : Le stage se déroulera à Marseille essentiellement au laboratoire d’informatique et des systèmes (LIS) dans l’équipe Images & Modèles sur le campus de St Jérôme (https://im.lis-lab.fr). Le LIS UMR 7020 fédère plus de 375 membres. La recherche y est structurée au sein de pôles (calcul, science des données, analyse et contrôle des systèmes, signal et image), et centrée sur les activités dans les domaines de l’informatique, de l’automatique, du signal et de l’image. L’apprentissage profond en particulier y est un thème transverse et le LIS dispose d’une plateforme dédiée, un cluster de nœuds GPU ainsi que le personnel de gestion nécessaire. Sujet : La modélisation des déformations des organes abdominaux revêt une importance cruciale pour la santé des patients et pour de nombreuses applications cliniques, telles que la planification de la radiothérapie adaptative, le suivi de la progression des maladies ou encore l’analyse biomécanique des tissus. L’imagerie par résonance ma- gnétique (IRM) peut offrir une visualisation spatiale et en coupe des déformations d’organes in vivo. Cependant, l’état de l’art actuel présente plusieurs limitations, notamment en termes de résolution et de reconstruction fidèle de l’évolution tridimensionnelle et dynamique des organes. L’objectif de ce stage est de proposer des solutions innovantes pour pallier ces limites. Dans le cadre d’un projet de recherche mené en collaboration avec l’AP-HM, nous nous intéressons au suivi des déformations des principaux organes pelviens. L’approche actuelle [1, 4] consiste à détecter un contour sur une série d’images 2D, puis à effectuer un échantillonnage spatial de ce contour initial. Les contours suivants sont ensuite estimés de manière récurrente à l’aide d’un modèle de transport optimal, la déformation finale étant calculée à partir de la distance entre les points d’échantillonnage obtenus. Cependant, cette méthode présente plusieurs faiblesses : la construction de l’échantillonnage est souvent arbitraire, le transport optimal peut introduire des biais difficiles à maîtriser, et la définition même de la distance utilisée reste discutable. Ces éléments limitent la robustesse et la généralisabilité de l’approche, malgré son intérêt scientifique certain. Afin de dépasser ces limitations, ce stage vise à exploiter des modèles et méthodes récents capables d’apporter plus de cohérence et de précision à la modélisation des déformations. Le premier axe d’amélioration concerne la discrétisation : celle-ci peut être évitée grâce aux représentations neuronales implicites (Implicit Neural Representations, INRs). Ces dernières reposent sur le principe d’approximation universelle des réseaux de neurones, leur permettant de représenter n’importe quelle forme continue. Ainsi, le contour précédemment échantillonné sera alors directement modélisé par un réseau neuronal. Pour l’estimation des déformations, nous proposons d’utiliser des réseaux de neurones informés par la phyique (Physics-Informed Neural Networks, PINNs). L’idée est d’intégrer des contraintes issues des équations mécaniques de la déformation afin d’estimer à la fois le champ de déformation et les paramètres des lois de comportement des tissus. En résumé, le stage a pour objectif de combiner les représentations neuronales implicites et les réseaux de neurones informés par la physique afin de modéliser les déformations d’organes alignées sur des données d’imagerie IRM, offrant ainsi une approche plus continue, précise et physiquement cohérente de la dynamique des organes observés. Réalisation L’objectif principal de ce stage est de développer et d’évaluer des modèles de déformation d’organes, en s’appuyant sur des approches d’apprentissage profond et de modélisation physique. Les étapes et objectifs clés sont les suivants : — Développer une représentation neuronale implicite (INR) des contours de déformation de la vessie en 2D + temps. — Évaluer les performances de cette représentation en termes de précision et de continuité temporelle. — Concevoir une approche basée sur les réseaux de neurones informés par la physique afin de reconstruire le champ de déformation et d’estimer les paramètres mécaniques du comportement. — Évaluer les performances du PINN selon deux perspectives possibles : — comme modèle hybride, intégrant à la fois les données expérimentales et les contraintes issues des équations physiques, afin de guider l’apprentissage vers des solutions cohérentes avec les lois mécaniques. — ou comme problème inverse, visant à identifier les paramètres physiques (par ex. propriétés mécaniques des tissus) et les déformations spatiales à partir des données observées, tout en respectant les équations de la mécanique des milieux continus. — Perspective d’extension vers la 3D+temps Données Le projet s’appuiera sur un jeu de données d’IRM dynamiques de la vessie, collecté auprès de 50 patientes. L’échantillonnage temporel, à raison d’une image par seconde, des séquences sagittales dynamiques fournit 12 images par patiente. Les contours de la vessie ont été extraits de manière manuelle ou semi-automatique, sur l’ensemble des images de la séquence dynamique. Au total, 600 contours ont ainsi été obtenus, constituant la base de données utilisée pour l’apprentissage et l’évaluation des performances du modèle. Profil du candidat : Le ou la candidat.e sera intéressé.e par un domaine pluridisciplinaire embrassant l’analyse d’image, les mathématiques appliquées, le deep-learning, dans un contexte médical. Des connaissances en équations aux dérivées partielles (EDP) et en méthodes de résolution par éléments finis constituent un atout supplémentaire pour ce stage. Formation et compétences requises : De formation Bac+5 dans une formation concernée par le traitement d’image. Une expérience de la programmation avec l’environnement python est un pré-requis, la connaissance de la bibliothèque JAX serait un plus. Le stage aura une durée de 4 à 6 mois avec la gratification d’usage (de l’ordre de 600€ par mois). Adresse d’emploi : Laboratoire d’Informatique et Systèmes – LIS – UMR CNRS 7020 – Aix-Marseille Université Campus scientifique de St Jérôme – Av. Escadrille Normandie Niemen -13397 Marseille Cedex 20 www.lis-lab.fr Document attaché : 202511071339_M2_stage_LIS_PINN.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire d’Informatique et Systèmes LIS – UMR Durée : 5 à 6 mois Contact : marc-emmanuel.bellemare@lis-lab.fr Date limite de publication : 2026-01-31 Contexte : Le stage se déroulera à Marseille essentiellement au laboratoire d’informatique et des systèmes (LIS) dans l’équipe Images & Modèles sur le campus de St Jérôme (https://im.lis-lab.fr). Le LIS UMR 7020 fédère plus de 375 membres. La recherche y est structurée au sein de pôles (calcul, science des données, analyse et contrôle des systèmes, signal et image), et centrée sur les activités dans les domaines de l’informatique, de l’automatique, du signal et de l’image. L’apprentissage profond en particulier y est un thème transverse et le LIS dispose d’une plateforme dédiée, un cluster de nœuds GPU ainsi que le personnel de gestion nécessaire. Sujet : Le stagiaire s’attachera à la segmentation des images acquises lors de l’observation par IRM dynamique des déformations des organes pelviens afin de produire des reconstructions 3D des surfaces en mouvement. Les troubles de la statique pelvienne représentent un enjeu de santé publique. Ils regroupent un ensemble de pathologies associant une perte des rapports anatomiques normaux des organes pelviens, et une altération dramatique de la qualité de vie des malades. Ces pathologies sont handicapantes à des degrés variés mais leur physiopathologie reste encore mal connue ce qui complique leur prise en charge. Dans le cadre d’une collaboration avec le service de chirurgie digestive de l’AP-HM, de nouvelles acquisitions IRM, associées à une reconstruction adaptée, ont permis la visualisation 3D des organes en mouvement. Des résultats probants ont été récemment obtenus et publiés pour l’observation de la vessie (Figure) et il s’agit de s’intéresser aux autres organes pelviens. Des acquisitions multi-planaires ont été réalisées dans des plans non classiques ce qui complique la reconnaissance des organes. Ainsi la segmentation des principaux organes impliqués est une étape primordiale mais difficile. Les partenaires cliniciens ont réalisé des segmentations manuelles des organes sur ces plans ce qui permet de disposer d’une vérité-terrain. Nous envisageons de proposer un nouveau modèle de réseau, adapté à la configuration des plans d’acquisition. Les problématiques de recalage, de segmentation et de modèles 3D, au cœur du projet, seront abordées selon les compétences et préférences du stagiaire. Profil du candidat : Le candidat ou la candidate de niveau Bac+5 dans une formation intégrant le traitement d’images, sera intéressé(e) par un projet pluridisciplinaire et par l’imagerie médicale. Les domaines abordés concernent les réseaux de neurones profonds, la segmentation d’IRM et la reconstruction 3D. Le stage aura une durée de 4 à 6 mois avec la gratification d’usage (de l’ordre de 600€). Formation et compétences requises : La compétence en programmation python est un pré-requis. Des compétences en mathématiques appliquées seront particulièrement appréciées. Une expérience de la programmation avec l’environnement PyTorch serait un plus. Adresse d’emploi : Laboratoire d’Informatique et Systèmes – LIS – UMR CNRS 7020 – Aix-Marseille Université Campus scientifique de St Jérôme – Av. Escadrille Normandie Niemen -13397 Marseille Cedex 20 www.lis-lab.fr Document attaché : 202511071329_Sujet_Master2_DL&SegmentationMultiPlan.pdf Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : IRISA/UBS Durée : 6 mois Contact : minh-tan.pham@irisa.fr Date limite de publication : 2026-01-31 Contexte : Sujet : Please see the attached PDF file. Profil du candidat : Formation et compétences requises : Adresse d’emploi : IRISA-UBS, 56000 Vannes Document attaché : 202510091448_2025_Master_topic_Dreams.pdf
|