Postes/PostDocs/CDD
May 30 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : ESPCI Durée : 1 an Contact : alexandre.allauzen@dauphine.psl.eu Date limite de publication : 2025-05-30 Contexte : L’École Supérieure de Physique et de Chimie Industrielles de la Ville de Paris est à la fois une Grande École d’ingénieurs et un institut de recherche (11 laboratoires) de réputation internationale jouissant d’une forte culture d’excellence scientifique (6 Prix Nobel). L’enseignement et la recherche se situent à la croisée du savoir et du savoir-faire en physique,chimie et biologie. Sujet : L’ESPCI recrute pour la rentrée de Septembre 2025 un poste de maître de conférences contractuel (contrat d’un an qui peut être renouvelé), avec une mission en deux parties : enseigner devant élèves 135h équivalent TD dans les formations de l’école et développer des travaux de recherche en collaboration avec les équipes de recherche de l’ESPCI Paris et PSL. La date limite de candidature: 11/05/2025 Fiche de poste: https://choisirleservicepublic.gouv.fr/offre-emploi/2025-1886438/ Pré-requis: Doctorat Profil du candidat : Formation et compétences requises : Adresse d’emploi : 10 rue Vauquelin 75005, Paris. May 31 Sat 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : CReSTIC, Université de Reims (https://crestic.univ Durée : fonctionnaire Contact : valeriu.vrabie@univ-reims.fr Date limite de publication : 2025-05-31 Contexte : Mots clés recherche : Aide à la décision, Machine Learning pour l’aide à la décision, Capteurs intelligents/Smart sensors, IA embarquée dans les capteurs Mots clés enseignement : Robotique industrielle, robotique de service, automatismes Sujet : RECHERCHE : Les activités de recherche s’inscriront dans les thématiques de recherche du CReSTIC et porteront sur l’instrumentation de capteurs, et l’intégration de approches d’apprentissage machine du capteur à la décision. Il est attendu de renforcer les équipes et chercheurs travaillant dans les domaines scientifiques portés par le CReSTIC en s’inscrivant parmi les thèmes transversaux ; de prendre en charge des encadrements de thèses/stages ; de développer de nouvelles activités collaboratives par le biais de projets structurants académiques et/ou industriels (ANR, Cifre…) ; de participer aux diverses collaborations du laboratoire notamment à travers son axe transverse smart agriculture (INRAe, Exebio, Terasolis, Aérolab, RIBP, etc.). Compétences recherchées : a) Instrumentation, acquisition, traitement de données embarqués pour l’aide à la décision et le contrôle ; b) Fusion d’informations hétérogènes, extraction et sélection de caractéristiques, adaptation des modèles et des algorithmes d’apprentissage, conception d’approches et méthodes permettant une intégration rapide et efficace d’algorithmes sur des architectures embarquées ; c) Intégration dans des applications embarquées, dont la robotique et l’industrie 4.0. Contacts : Valeriu VRABIE, Responsable de l’équipe Traitement du Signal Tél : 06.49.21.53.71 Email : valeriu.vrabie@univ-reims.fr Bart Lamiroy, Directeur du CReSTIC Tél : 06.02.14.69.73 Email : crestic.direction@univ-reims.fr ENSEIGNEMENT : Le candidat devra posséder une expérience en robotique industrielle, de service, open-source et/ou embarquée que ce soit en termes de modélisation, simulation, dimensionnement, commande, intégration ou programmation. Dans ces domaines, il devra s’investir pour le développement d’enseignements et de formations axées thématiquement sur l’industrie du futur en vue d’accroître le caractère innovant et l’attractivité des formations du département. Au-delà de cette thématique, il devra également dispenser des enseignements périphériques à la robotique, principalement en automatismes, et dans une moindre mesure en automatique, informatique industrielle, ou encore capteurs et instrumentation. Il interviendra dans les formations du département EEA et autres formations de l’EiSINe présentes sur le site de Reims (environ 300 étudiants) pour y enseigner sous forme de cours, TD, TP et projets : – Licence SPI parcours EEEA ; – Cycle préparatoire intégré à coloration EEEA ; – Master EEEA parcours Automatique et robotique de service ; – Filières ingénieurs : *Spécialité Automatique et Informatique Industrielle (UTT/URCA) ; *Spécialité Automatique et Génie Électrique ; *Spécialité Mécanique et Génie Industriel ; – Licence Pro Métiers de l’Électricité et de l’Énergie, parcours Chargé de projet en électricité ; Il devra également contribuer à la vie du département EEA : Opérations de promotion des filières, commissions, responsabilités de matières, visites de stagiaires et d’apprentis. Compétences requises : – aptitude au travail en équipe et à la communication ; – capacité à développer des supports pédagogiques (montage de séries de TP notamment) et concevoir ou intégrer des maquettes innovantes ; – prise de responsabilité d’équipements et salles de TP ; – dynamisme et volonté de s’investir dans les formations ; – capacité à répondre aux appels à projets pédagogiques (AMI, PACTE …) ; – accompagnement des challenges robotiques ou d’ingénierie des systèmes : Olympiades FANUC, coupe de France de robotique, Robafis… ; – capacité à enseigner en anglais. Contact : Maxime COLAS – Directeur adjoint EiSINe, Président du département EEA Tél : 06.20.62.43.70 Email : maxime.colas@univ-reims.fr Profil du candidat : Formation et compétences requises : Adresse d’emploi : Recherche : Laboratoire CreSTIC – Campus Moulin de la Housse – Reims Enseignement : Département EEA de l’EiSINe – site de Reims – Campus Moulin de la Housse Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Ecole d’Ingénieurs Jules Verne, Laboratoire des T Durée : MCF Contact : nadia.hamani@u-picardie.fr Date limite de publication : 2025-05-31 Contexte : Sujet : Cher(e)s tou(te)s, Un poste de Maître de Conférences en 61ème section est ouvert au concours à l’EiJV (Ecole d’Ingénieurs Jules Verne) sur le profil “Logistique et Supply Chain, transformation digitale”. (cf. fiche jointe). Les candidats intéressés sont invités à se faire connaître, Pour tout renseignement sur le poste, merci de bien vouloir nous contacter : A : nadia.hamani@u-picardie.fr, Prof. Nadia Hamani, Responsable de la spécialité Logistique Cc : gilles.dequen@u-picardie.fr, Prof. Gilles Dequen, Directeur de l’EiJV Merci pour la publicité que vous pourriez accorder à cette annonce. Bien cordialement, Nadia Hamani et Gilles Dequen Profil du candidat : Formation et compétences requises : Adresse d’emploi : Ecole d’Ingénieurs Jules Verne, Saint Quentin Document attaché : 202503171414_MCF 61 EiJV _2025.pdf Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : FEMTO ST Durée : 2 ans Contact : noura.dridi@ens2m.fr Date limite de publication : 2025-05-31 Contexte : Sujet : Call for application: Funding: Project to submit to Bourgogne Franche Comté Region’s ATRACT program in France, before 02/06. Post doc position for two years. Contact: Noura Dridi, noura.dridi@ens2m.fr Stephane Chretien, stephane.chretien@univ-lyon2.fr Subject: In high-stakes fields like healthcare, criminal justice, and finance, reliable decision-making requires not only accurate predictions but also trustworthy uncertainty quantification. Conformal prediction provides valid, model-agnostic prediction sets. However, the impact of these prediction sets on human decision-making quality and trust remains to be explored, particularly in challenging scenarios such as class imbalance, limited data, or distributional shifts. Mixed effects models (MEMs) offer a powerful way to capture both fixed and random effects, making them ideal for modeling hierarchical structures and real-world variability. Mixed effects models and uncertainty quantification (UQ) are closely linked, especially in real-world settings where variability arises at multiple hierarchical levels (e.g., individuals, institutions, repeated measurements). They provide a principled framework for modeling structured uncertainty, which is essential for making informed, trustworthy decisions. By combining MEMs with conformal inference, the project aims to both improve decision quality and trust, and enable more robust, uncertainty-aware decision support across levels of variation. Profil du candidat : Admission Requirements: -Theses defended or to be defended before October outside Bourgogne Franche Comté Region. -Statistics. -Machine learning. -Programming. Formation et compétences requises : Adresse d’emploi : Besançon, France Document attaché : 202505190652_project.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Brain-C Lab, NeuroSU, Institute of Biology Paris-S Durée : 11 months Contact : lucile.megret@sorbonne-universite.fr Date limite de publication : 2025-05-31 Contexte : Sujet : A 11 months position is immediately available in the Brain-C Lab in Paris for a bioinformatician at the Study Engineer (IE) level (post-master position). The selected candidate will work with a team of mathematicians, bioinformaticians, and neurobiologists on modeling time- and cell-resolved omics data to built computational models of molecular pathogenesis in neurodegenerative diseases such as amyotrophic lateral sclerosis (ALS), integrate data from other diseases such as Huntington’s disease (HD) and disseminate data via online platforms. The selected candidate will use BioGemix, our post-omics machine learning platform and related databases. This position is a unique opportunity to further develop expertise and skills in a multidisciplinary team and network of direct collaborators that cover systems modeling, database development, and cellular neurobiology for breakthrough in neurodegenerative disease research. Application: Interested candidates should apply immediately by sending a letter of motivation, a full CV, and the names and emails of two-three references to christian.neri@inserm.fr and lucile.megret@sorbonne-universite.fr Profil du candidat : The candidates should hold a Master in Biofinformatic or a Master in Informatics and they should have no more than 3-4 years of post-master experience. The position is full time, on site, and candidates should have strong collaborative skills and commitment to team work along with strong ability to work independently in addition to strong interest for research. Formation et compétences requises : • Experience working with NGS data and performing respective bioinformatic pipelines in order to process sequencing data. • Programming autonomy on at least one of the following languages: python, R, C / C ++. • Good knowledge of basic web technologies: PHP, MySQL, JavaScript, jQuery. • Fluency on Ubuntu. • Hands-on experience with in house server maintenance (Backup, shared space, and webserver). • Scientific English essential • Skills in data visualization will be a plus. • Basic knowledge in statistics and machine learning are desirable but not mandatory. Adresse d’emploi : 7 Quai Saint-Bernard, 75005 Paris Document attaché : 202503241018_Annonce_bioinfo_IE.pdf Jun 6 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Institut FEMTO-ST, Besançon Durée : Permanent Contact : jean.aucouturier@femto-st.fr Date limite de publication : 2025-06-06 Contexte : SUPMICROTECH (École Nationale Supérieure de Mécanique et des Microtechniques) and the Dept of Automation and Robotics, FEMTO-ST Institute in Besançon, France are advertising an exciting new faculty position on the topic of Scientific machine learning (machine learning for the data-driven modeling of complex dynamical systems), with possible application (but not limited) to the scope of the neuroscience. Sujet : The recruited faculty is expected to join the Dept of Automation and Robotics (Automatique et Systèmes Micromécatroniques, AS2M) of the FEMTO-ST Institute, of which SUPMICROTECH is one of the host operating institutions. The aim of this faculty position is to set up a research program around the theme of explainable and physically-informed AI for modeling dynamical systems, and to steer a strong and original vision for the place of AI both in the research of the AS2M Dept, and in the SUPMICROTECH teaching curriculum. The new faculty is expected to develop a research agenda towards inventing the next generation of scientific machine-learning tools for controlling complex physical or physiological systems, by using a data-driven approach to discover physically interpretable models of dynamical systems based on temporal data (instead of studying such systems analytically). Profil du candidat : The position is a junior professorship (“chaire de professeur junior”), a new type of position intended as a priviledged fast-track to a Full Professorship position (“professeur des universités”). It consists of an initial fixed-term period leading (3-5 years depending on experience) leading, upon successful review, to direct promotion at the rank of Full Professor. This is a primarily research-oriented position, with a reduced teaching load of 64 hours (96 HETD) per year (equivalent to two one-semester courses). Upon successful review at the end of the tenure period, the position will be turned into a permanent/tenured full professor position in the French university system with the standard teaching load of 128 hours (192 HETD, or four one-semester courses) per year. The initial monthly gross salary will be around 3500 Euros (depending on experience), and include a generous 320k€ research startup package (tentatively: funding for 2 PhD students and one postdoc). Formation et compétences requises : Adresse d’emploi : Date limite de candidature: 30 Mai 2025 Info: https://neuro-team-femto.github.io/2024/04/19/faculty-position Jun 10 Tue 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : CEDRIC, CNAM Durée : 6 mois Contact : elena.kornyshova@cnam.fr Date limite de publication : 2025-06-10 Contexte : Sujet : Multiple applications as well as so-called ‘smart’ devices appear and develop. This field is booming, it is not yet structured. As part of an international collaboration, we have started this work at the level of existing states of the art (2410 works). However, this work is limited because it does not take into account primary research sources (around 300,000). The objective is to carry out a survey of the publications available in scientific databases in order to analyze the existing terminology and establish typologies of fields and intelligent devices in the whole and by sub-domain: smart healthcare, smart cities, etc. Profil du candidat : PhD in Computer science, machine learning, NLP, interested in Smart applications and devices. Formation et compétences requises : Adresse d’emploi : 2 rue Conté, 75003 Paris, France Jun 15 Sun 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : ISEN Yncrea Ouest Durée : 12 mois Contact : sylvain.lefebvre@isen-ouest.yncrea.fr Date limite de publication : 2025-06-15 Contexte : Yncréa Ouest est un Établissement d’Enseignement Supérieur Privé d’Intérêt Général (EESPIG) sous contrat avec le ministère de l’Enseignement Supérieur et de la Recherche. L’Association Yncréa Ouest est membre d’Yncréa, premier pôle privé associatif d’écoles d’ingénieurs en France. Yncréa Ouest gère l’école d’ingénieurs ISEN Yncréa Ouest, implantée sur les villes de Brest, Caen, Nantes, Rennes et Paris (Antony). L’école forme des élèves ingénieurs dans les technologies du numérique et notamment les systèmes numériques embarqués, la robotique, l’énergie, les objets connectés (IoT), l’intelligence artificielle, le big data, l’environnement, le développement durable, les technologies marines et la cybersécurité. Les activités de recherche de l’équipe d’accueil sont centrées essentiellement sur le numérique et ses applications notamment celles dans l’Usine du futur, le campus connecté, le traitement des données et l’Intelligence Artificielle. Plus des détails sont disponibles sur le site de l’ISEN. Ce contrat se déroule dans le cadre d’une chaire industrielle créée en 2021 entre l’entreprise ACOME, leader européen dans la création des câbles et le L@bISEN, le laboratoire de recherche de l’Institut Supérieur de l’Electronique et du Numérique (ISEN). Ce travail va être effectué par un(e) post-doctorant(e) ou un(e) ingénieur(e) de recherche, sur une période de de 12 mois, encadré(e) par un enseignant-chercheur de l’ISEN Ouest. Plus largement, la personne recrutée bénéficiera du soutien technique de l’équipe de recherche, équipe composée de 5 E/C et 2 ingénieurs. ACOME – Mortain A la fois leader et spécialiste sur les marchés des réseaux télécoms et infrastructures, des réseaux du bâtiment, de l’automobile et de l’embarqué, ACOME est aujourd’hui le premier Groupe industriel coopératif Français produisant des câbles, des tubes et de la fibre optique sur le territoire national depuis 1932 et la première SCOP de France (Société Coopérative et Participative) avec une forte dynamique internationale et des implantations en Chine, en Afrique du Nord et au Brésil. Plus des détails sont disponibles sur le site d’ACOME. Pour inciter à la mixité des candidatures sur tous les postes et surtout ceux à forte prédominance féminine ou masculine, l’Association rappelle qu’elle étudie avec la même attention les candidatures féminines et masculines. Association handi-accueillante, nos postes sont ouverts aux personnes en situation de handicap. Pour candidater : https://isen.softy.pro/offre/161433-post-doctoral-conception-et-mise-en-place-de-solutions-ia-pour-loptimisation-des-flux-industriels-h-f Sujet : En 2019 l’industrie manufacturière était responsable de 19% des déchets non dangereux produits chaque année [1]. A l’ère de la numérisation massive de l’industrie et du développement des technologies d’intelligence artificielle, la mise en place de systèmes et procédures permettant d’automatiser la détection et la correction des défauts de production promet d’impacter significativement les quantités rejetées lors de la production. La fabrication des câbles combine plusieurs activités complexes de production effectuées par différentes machines dans plusieurs ateliers. L’activité de production de l’entreprise concerne principalement la production de câbles pour différents secteurs industriels et notamment pour le secteur automobile. Il s’agit donc de fabrication de produits en long. Les procédés de fabrication pour ce genre de produits impliquent des flots continus de matières circulant dans et entre les machines. Des changements d’ordre de fabrication, des défauts de qualité des matières premières ou des conditions de production particulières produisent par exemple des produits ne pouvant être commercialisés qui sont alors des sources de coût pour l’entreprise et ont impact environnemental négatif. Il y a donc un besoin de fournir un outil d’analyse intelligent de plusieurs sources de données sur l’ensemble du processus de production, qui puisse recommander automatiquement aux ingénieurs qualité les paramètres optimaux pour minimiser les déchets. ACOME et les équipes de l’ISEN ont donc développé un lac de données rassemblant les informations de production et de qualité lors des phases antérieures du projet. L’analyse de ces données est en cours et permettra de faire émerger des recommandations et des outils de suivis appropriés pour les équipes qualité d’ACOME. Le post doctorant interviendra donc dans le développement de ces outils d’analyse, ce qui pourrait nécessiter la conception de nouvelles approches de recherche, comme : l’analyse de journaux existants et d’identification automatiques des éléments pouvant amener à générer des déchets [1], le développement de méthodes prédictives (IA, Apprentissage Automatique et Profond) pour l’estimation des quantités de déchets. D’autres approches peuvent utiliser des jumeaux numériques [2, 4] et l’apprentissage par renforcement pour virtuellement reproduire les conditions de l’usine et analyser l’impact des variations des paramètres de production. Enfin, les approches visant à optimiser l’ordonnancement des tâches, c’est-à-dire la planification des activités de production, dans le but de minimiser la quantité de déchets produits pourront être explorées [3]. Références : [1] Duong, L. T., Trave-Massuyes, L., Subias, A., & Roa, N. B. (2021). Assessing product quality from the production process logs. The International Journal of Advanced Manufacturing Technology, 117, 1615-1631. [2] Howard, D. A., Ma, Z., & Jørgensen, B. N. (2021). Digital Twin Framework for Industrial Production Processes. Energy Informatics, 4(Suppl. 1), P9. [3] Le Hesran, C., Ladier, A. L., Botta-Genoulaz, V., & Laforest, V. (2019). Operations scheduling for waste minimization: A review. Journal of cleaner production, 206, 211-226. [4] Botín-Sanabria, D. M., Mihaita, A. S., Peimbert-García, R. E., Ramírez-Moreno, M. A., Ramírez-Mendoza, R. A., & Lozoya-Santos, J. D. J. (2022). Digital twin technology challenges and applications: A comprehensive review. Remote Sensing, 14(6), 1335. Profil du candidat : Le candidat devra montrer une solide expertise dans un ou plusieurs des domaines suivants : – Avoir des prérequis solides en : IA, Statistique, Big Data Analysis, Big Data Science, Machine Learning, Deep Learning, etc. – Excellente compétence en programmation orientée-objet (Python ou Java, etc.) – Avoir une expérience dans la proposition, développement, test des modèles de statistique inférentielle, de corrélation, de régression, de classification ou de clustering, – Maitriser le Français et l’Anglais, – Mener des recherches de haut-niveau et publier des articles scientifiques dans des conférences et des revues internationales à comité de lecture. Expériences appréciables : – Une expérience industrielle, – Connaissance du SQL. Formation et compétences requises : Adresse d’emploi : Carquefou ou Antony Jun 20 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : EFELIA Côte d’Azur Durée : 2 ans Contact : vincent.vandewalle@univ-cotedazur.fr Date limite de publication : 2025-06-20 Contexte : Nous recherchons notre futur/future Enseignant/e Chercheur/euse contractuel/le en Intelligence Artificielle Générative ! Le rattachement sera à EFELIA Côte d’Azur, ainsi qu’au département d’informatique. Rejoignez-nous au sein d’Université Côte d’Azur, reconnue depuis 2016 pour son excellence scientifique et pédagogique, pour créer ensemble le modèle de l’université du 21ème siècle responsable et innovante. Sujet : La personne recrutée intègrera l’équipe du projet EFELIA Côte d’Azur pour contribuer au développement des formations établies par la direction scientifique, en particulier à destination des publics de master, mais non exclusivement (licence, formation professionnelle et MOOC). Lapersonne participera à la production de contenu scientifique pour ces enseignements. La mission comprend 128 heures équivalent TD d’enseignement en présentiel, 64 heures de missions complémentaires (représentation du projet, aide à la réalisation de contenus en ligne), et d’une mission de recherche en développant une perspective sociologique de l’IA. La personne devra être capable d’enseigner des cours de base en IA (en particulier machine learning) à destination de publics non techniques, et des cours avancées aux publics experts et professionnels, en particulier sur les méthodes d’IA générative, tout en y développant une perspective critique incluant les problématiques éthiques, sociales et écologiques (limites, biais, consommation, justice sociale).Le projet de recherche devra être mené aux laboratoire I3S (UniCA, CNRS) ou au Centre Inria d’UniCA, et conçu avec des membres de ces laboratoires pour y développer des activités autour des modèles fondations pour les grands défis scientifiques et de société (exemples : analyse multimédia, biologie, médecine, environnement). Le projet de recherche devra permettre de démontrer une réelle volonté d’intégration à l’équipe d’accueil en recherche, pour contribuer à apporter de nouvelles approches aux domaines fondamentaux ou applicatifs de l’équipe Profil du candidat : Les personnes candidates doivent avoir : • Un doctorat avec une forte composante en apprentissage automatique et deep learning (ou une soutenance de doctorat prévue en 2025), • Contributions de recherche en apprentissage automatique, apprentissage profond et domaines d’application tels que la vision par ordinateur, • Publications dans des revues internationales de premier plan (PAMI, JMLR, IEEE Trans. On Multimedia, …) ou dans des conférences sur l’IA et ses principaux domaines d’avancement (NeuRIPS, ICML, CVPR, ICCV, ACM Multimedia, AISTATS, IJCAI, ACL, IEEE IROS, …), • Capacité à enseigner des cours d’informatique, d’apprentissage automatique et d’apprentissage profond, • La maîtrise du français est requise. Formation et compétences requises : Une expérience en enseignement est souhaitée. Expérience dans l’enseignement de l’Intelligence Artificielle serait un plus. Adresse d’emploi : Les missions d’enseignement/formation seront assurées sur les différents campus de l’université, les activités de recherche seront à l’I3S ou à l’Inria. Document attaché : 202505150911_Fiche de poste Enseignant·e·s contractuel·le·s IA générative EFELIA Côte d’Azur ok-3.pdf Jun 30 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : AMSE/IRPHE, Marseille Durée : 24 mois Contact : badihghattas@gmail.com Date limite de publication : 2025-06-30 Contexte : Researchers in statistics and fluid mechanics are collaborating on developing digital twins that replicate the behavior of CFD (computational fluid dynamics) models. Sujet : Substitution of Fluid Mechanics Numerical Models with Deep Learning Models. Applications to Vascular Pathologies Profil du candidat : We are looking for a candidate who demonstrates strong autonomy and the ability to work effectively within a collaborative team environment. The ideal candidate will possess excellent analytical and critical thinking skills, as well as a keen ability to listen, observe, and engage constructively in discussions. We also value flexibility, adaptability, and clear communication skills, both written and verbal. Formation et compétences requises : A phD in applied Mathematics, artificial intelligence or Mechanics with good skills in programming with python (keras, pytorch, numpy, pandas,…) and data manipulation and management. Adresse d’emploi : 5-9 Boulevard Maurice Bourdet, 13001 Marseille. Document attaché : 202505061131_PostDocAnnonceEn.pdf Jul 7 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : UFR de mathématique et d’informatique, Université Durée : 11 mois renouvelable Contact : cecilia.zanni-merk@insa-rouen.fr Date limite de publication : 2025-07-07 Contexte : Date de prise de fonction : 01/10/2025 Caractéristique du poste : 11 mois, contrat renouvelable (possibilité de passer en CDI de mission après le premier contrat) Rémunération : La rémunération principale, versée par l’Unistra est de 3824 € brut mensuel à laquelle s’ajoute une rémunération complémentaire par le partenaire Azerbaïdjanais (environ 1200€ brut mensuel). Le candidat ou la candidate devra être qualifié aux fonctions de Maître de Conférences par le CNU Sujet : Intitulé du profil Enseignement : Informatique La personne recrutée enseignera dans les diplômes de Licence et Master en informatique à l’UFAZ (Université Franco Azerbaidjanaise) à Bakou (Azerbaïdjan). Elle devra être capable d’enseigner la plupart des matières proposées dans ces cursus. Elle sera impliquée dans l’organisation pédagogique des formations, en coordination avec les responsables de diplômes. Les offres de formation du BSc Computer Science et du MSc DSAI sont disponibles dans le document ci-joint. Langue d’Enseignement : Anglais Intitulé du profil Recherche : Intelligence Artificielle Pour renforcer le département de recherche en informatique, l’UFAZ ouvre un poste de maître de conférences contractuel en informatique. La personne recrutée devra être qualifiée en section 27 du CNU. Elle devra proposer un projet d’intégration en recherche dans l’un de ces trois axes : Algorithmes évolutionnaires, Apprentissage automatique et Fouille de données ou Graphes de connaissances et sémantique. Une description détaillée de chaque axe peut être consultée sur le site web du département de recherche : https://cs.research.ufaz.az La personne recrutée devra contribuer activement à la vie de la communauté scientifique. Au niveau local, elle sera force de proposition à l’intérieur des équipes de recherche, proposera de nouvelles interactions ou renforcera les liens existants entre équipes. Au niveau national ou international, elle sera moteur pour la mise en place de projets scientifiques. Son rôle sera également de suivre et développer les interactions émergentes entre l’industrie et le département recherche. Profil du candidat : Formation et compétences requises : Il sera très apprécié si le candidat possède les compétences suivantes ● managériales et organisationnelles permettant de superviser les enseignants locaux et de maintenir une communication efficace avec les professeurs invités, l’équipe de l’Université de Strasbourg (Unistra) et la direction de l’UFAZ. ● en matière d’administration universitaire, comprenant l’élaboration des programmes d’études et leur évaluation ● d’adaptation dans un environnement multi-culturel et inter-disciplinaire ● linguistiques avec la nécessité de posséder un niveau d’anglais B2 au minimum. Adresse d’emploi : Université Franco-Azerbaidjanaise (UFAZ) à Bakou (Azerbaidjan) Document attaché : 202506231433_[MI] fiche de poste contractuel_Math-Info UFAZ 2025.pdf Jul 15 Tue 2025 Offre en lien avec l’Action/le Réseau : SimpleText/– — – Laboratoire/Entreprise : HCTI, University of Brest, France Durée : 12 months Contact : liana.ermakova@univ-brest.fr Date limite de publication : 2025-07-15 Contexte : ANR JCJC SimpleText project: Automatic Simplification of Scientific Texts (https://anr.fr/Projet-ANR-22-CE23-0019) in partnership with the University of Amsterdam Application If you feel the profile fits you, and you are interested in the job, we look forward to receiving your application. Job applications should be sent to liana.ermakova@univ-brest.fr. We accept applications until and including 13 July 2025. Applications should include the following information: – A detailed CV including the months (not just years) when referring to your education and work experience; – A letter of motivation explaining how the project is related to your research background; – A list of publications (in case of joint authorship, please clearly indicate your own contribution); – The thesis; – The names, affiliations, and email addresses of two academic referees who can provide details about your academic profile in relation to this position (please do not include any reference letters in your application). Sujet : We seek an ambitious and highly talented postdoc to work on the interface of information retrieval (IR) and natural language processing (NLP) models applied to large-scale scientific text corpora. The recruited person will work as part of the ANR JCJC SimpleText project: Automatic Simplification of Scientific Texts (https://anr.fr/Projet-ANR-22-CE23-0019) in partnership with the University of Amsterdam. Our project aims to develop effective and efficient IR and NLP technology for promoting scientific information access and to support non-professionals searching for scientific information in academic literature. Specifically, we deploy large language and foundation models for the RAG (retrieval augmented generation) setup in the context of text simplification. There is considerable flexibility to shape the project to emerging research opportunities and the background and interests of the candidate. Profil du candidat : The candidate should have a PhD in AI/NLP/IR and a strong motivation for the project topic. Formation et compétences requises : Adresse d’emploi : HCTI, University of Brest 20 rue Duquesne 29200 Brest France Sep 1 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IMT Mines Alès (Ecole Nationale Supérieur des Mine Durée : CDI Contact : guyot@irit.fr Date limite de publication : 2025-09-01 Contexte : Sujet : Maître de Conférences en Apprentissage Machine et Contrôle de systèmes complexes Profil du candidat : Formation et compétences requises : Adresse d’emploi : IMT Mines Alès (Ecole Nationale Supérieur des Mines d’Alès) Document attaché : 202409050837_fp_-_mdc_ceris_ia_et_ingenierie_fr-2.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Brain-C Lab, Institute of Biology Paris-Seine (IBP Durée : 12 months Contact : lucile.megret@sorbonne-universite.fr Date limite de publication : 2025-09-01 Contexte : Sujet : Project: A 12 months position is immediately available in the Brain-C Lab in Paris for a bioinformatician at the Study Engineer (IE) level (post-master position). The selected candidate will work with a team of mathematicians, bioinformaticians, and neurobiologists on modeling time- and cell-resolved omics data to built computational models of molecular pathogenesis in neurodegenerative diseases such as amyotrophic lateral sclerosis (ALS), integrate data from other diseases such as Huntington’s disease (HD) and disseminate data via online platforms. The selected candidate will use BioGemix, our post-omics machine learning platform and related databases. This position is a unique opportunity to further develop expertise and skills in a multidisciplinary team and network of direct collaborators that cover systems modeling, database development, and cellular neurobiology for breakthrough in neurodegenerative disease research. Profil du candidat : Profile: The candidates should hold a Master in Biofinformatic or a Master in Informatics and they should have no more than 3-4 years of post-master experience. The position is full time, on site, and candidates should have strong collaborative skills and commitment to team work along with strong ability to work independently in addition to strong interest for research. Formation et compétences requises : • Training and required skills: Experience working with NGS data and performing respective bioinformatic pipelines in order to process sequencing data. • Programming autonomy on at least one of the following languages: python, R, C / C ++. • Good knowledge of basic web technologies: PHP, MySQL, JavaScript, jQuery. • Fluency on Ubuntu. • Hands-on experience with in house server maintenance (Backup, shared space, and webserver). • Scientific English essential • Skills in data visualization will be a plus. • Basic knowledge in statistics and machine learning are desirable but not mandatory. Adresse d’emploi : 7 quai Saint Bernard 75005 Paris Document attaché : 202506271149_Annonce_bioinfo_IE.pdf Sep 26 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Toulouse INP : ENSEEIHT/IRIT ou AgroToulouse/Dynaf Durée : 3 à 5 ans Contact : nicolas.dobigeon@enseeiht.fr Date limite de publication : 2025-09-26 Contexte : Sujet : Une chaire de professeur junior (CPJ) est ouverte au recrutement à Toulouse INP sur le thème de la “modélisation et apprentissage automatique pour l’agroécologie” (IA, modélisation, télédétection, agronomie…). Selon le profil du lauréat ou de la lauréate, deux rattachements sont possibles : – à l’INP-AgroToulouse (enseignement) et à l’UMR DYNAFOR (recherche) – à l’INP-ENSEEIHT (enseignement) et à l’UMR IRIT (recherche) Quel que soit le rattachement, l’objectif est que la personne contribue à créer de la synergie entre les deux écoles et les laboratoires, dans le cadre de la création d’une nouvelle formation transversale associée. Les candidatures sont ouvertes jusqu’au au vendredi 22 août 2025 à 16h00 (heure de Paris) sur la plateforme ODYSSEE : https://odyssee.enseignementsup-recherche.gouv.fr/ Voir les instructions ici : https://www.galaxie.enseignementsup-recherche.gouv.fr/ensup/cand_recrutement_enseignants_chercheurs_Odyssee.htm Des détails concernant le contexte et les objectifs de cette chaire sont disponibles sur l’appel à candidature : https://www.inp-toulouse.fr/_attachment/campagnes-de-recrutement-enseignants-chercheurs-accordeon/Profil%202025_CPJ%20Mod%C3%A9lisation%20et%20apprentissage%20automatique%20pour%20l’agro%C3%A9cologie.pdf?download=true Profil du candidat : Au terme de la période de 5 ans maximum, une titularisation dans le corps des Professeurs des Universités sera envisagée. Cette chaire est donc adaptée à des personnes ayant déjà 3 à 5 ans d’expérience après la thèse et dont le dynamisme permettrait de prétendre à un poste de Professeur à la fin d’une période de 5 ans, en supposant l’HDR soutenue. Elle est aussi ouverte à des personnes déjà titulaires de l’HDR. Dans ce cas, en fonction de l’expérience, la durée de la chaire pourrait être réduite à 3 ans avant une possible titularisation. Formation et compétences requises : La thématique de la chaire est large et peut correspondre à des personnes venant du monde des sciences des données et du traitement des images, intéressées par l’agroécologie spatialisée comme domaine d’application privilégié. Elle s’adresse aussi à des agronomes / agroécologues ayant une bonne expérience en modélisation (statistique, mécaniste) spatialisée. Adresse d’emploi : Toulouse INP Document attaché : 202507100908_Profil 2025_CPJ Modélisation et apprentissage automatique pour l’agroécologie.pdf Sep 30 Tue 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : CReSTIC / Institut Godinot / Siemens Durée : 24 mois Contact : Agnes.Delahaies@univ-reims.fr Date limite de publication : 2025-09-30 Contexte : Sujet : https://crestic.univ-reims.fr/uploads/emplois/Siemens_Post_Doc.pdf Profil du candidat : Formation et compétences requises : Adresse d’emploi : Université de Reims Champagne-Ardenne (Reims, Troyes) Document attaché : 202505161710_Siemens_Post_Doc.pdf Oct 1 Wed 2025 Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : ETIS/CY Paris Cergy Université Durée : 18 months Contact : aikaterini.tzompanaki@cyu.fr Date limite de publication : 2025-10-01 Contexte : The position is funded by the prestigious EU Horizon PANDORA project, A Comprehensive Framework enabling the Delivery of Trustworthy Datasets for Efficient AIoT Operation. The main goal of the project is to contribute towards the creation of a dynamic AI pipeline in the context of IoT applications, focusing on i) the creation of synthetic but trustworthy data, and ii) on the development of AI algorithms for various tasks (from classic classification, regression and anomaly detection, to forecasting and predictive maintenance) taking into account the specific data characteristics of continuous data generation settings and leveraging the domain knowledge when available. Explainability is a fundamental property for rendering the systems reliable, as it can help i) enhance the acceptability of the system by the system experts and further aid in decision making, ii) optimize model performance (time and accuracy) by revealing the actual causes behind predictions, and iii) repair data acquisition processes or model training/updating by exposing errors and/or drifts that may arise through time. The project gathers over 20 academic and industrial partners, with real and challenging use-cases and thus provides a unique opportunity to contribute to cutting-edge research with significant real-world impact. Sujet : Subject: Predictive maintenance (PDM) in industrial settings spans from identifying anomalies and categorizing failures in already observed data, to prognostically predicting the Remaining Useful Life (RUL) and the Failure Time (FT) of machines, appliances, etc., in the future. Typically such predictive tasks are implemented using Deep Learning and/or statistical analysis techniques, which may be complex to interpret, while their performance is challenged by multiple sources of errors (sensors’ tuning, aging, failures, etc.) and the non-stationary nature of IoT data streams. In particular, concept drifts can originate from the changes in the underlying data generation mechanism that reflects different states of the monitored system. In this context, the predictive performance of already trained models f(X,Y) (e.g., classification, regression) may start degrading after a certain point in time and hence models need to be adapted at the right frequency. However, not all types of changes in the joint probability distribution P(X,Y) have the same impact on model performance. In this respect, we need to distinguish between changes in the posterior probability distribution P(Y|X) (i.e., Model drifts) between input features X and the target variable Y, from class-conditioned data distribution changes P(X|Y) (i.e., likelihood drifts) and changes in the distribution of input features P(X) (i.e., covariate drifts). Clearly, not all types of changes of the joint probability distribution $P(X, y)$ influence predictive models in the same way and hence, they require different mitigation actions. In this project we are particularly interested in how data quality and concept drifts affect the performance of PDM tasks such RUL and FT. Moreover, besides developing performant, robust, and stable FT and RUL prediction algorithms through time, we are also interested in enhancing interpretability of their results. On the one hand, engineers need to know the root causes for a predicted machine failure at a time t in the future, so that they may take the best possible action towards preventing the failure to happen, or replace a machine in time before having to take the system down for replacement of the compromised machine. Such explanations should cover both the time parameter (why a failure will happen after a time interval) and the type of failure (why a specific type of error will happen). On the other hand, fine-grained explanations of the different types of concept drifts can guide data analysts to take timely, and informed actions for adapting the prediction algorithm to the observed concept drift. While explainability has been a major research interest in recent years, explanation methods for concept drift are still in their infancy. Some of the approaches aim for the detection and quantification of drift, its localization in space or its visualization, while others focus on feature-wise representations of drift. In this project, we aim to investigate actionable concept drift explanations, adding in the equation weak and strong signals for failure events. We believe that concept drift explanations constitute a form of actionable explanations responding to both aforementioned expert needs, and thus can be more valuable than standard feature importance explanations. Profil du candidat : Responsibilities/Opportunities Conduct high quality research in Explainable AI in non-stationary settings. Develop novel algorithms and methodologies for Predictive Maintenance using IoT streams. Publish in top-tier conferences and journals. Collaborate with an interdisciplinary team of researchers and industry partners. Participate in project meetings and contribute to the project’s management. Formation et compétences requises : PhD in Machine Learning, AI, Data Science, Statistics, or a related field. Strong background in at least one of the following: deep learning, continual learning, time series analysis, or predictive maintenance. Experience with explainable AI (XAI) methods. Proficiency in Python and relevant ML frameworks (PyTorch, TensorFlow, Scikit-learn). Excellent publication record in Data management, Artificial Intelligence, Machine Learning, or IoT applications. Adresse d’emploi : Equipe DATA&AI – ETIS Laboratory, CY Cergy Paris Université 33 Bd du Port, 95000 Cergy Document attaché : 202503241752_Post-Doc Position in Explainable AI in Industrial Settings_DATAIA_PARIS.pdf Oct 2 Thu 2025 Offre en lien avec l’Action/le Réseau : DatAstro/– — – Laboratoire/Entreprise : LISN Durée : 3 à 5 ans Contact : cyril.furtlehner@inria.fr Date limite de publication : 2025-10-02 Contexte : Le département d’informatique de l’Université Paris-Saclay annonce l’ouverture d’une Chaire de Professeur Junior rattachée au laboratoire LISN, dans le domaine interdisciplinaire de l’apprentissage automatique et de la physique, à partir de décembre 2025 (voir détails : https://team.inria.fr/tau2/files/2025/09/CPJ.pdf). Cette CPJ correspond à un poste de type tenure-track, assorti d’un financement de démarrage d’environ 200 k€ et d’un service d’enseignement réduit (64h/an) pendant les premières années, normalement suivi d’une titularisation comme professeur des universités. La date limite de candidature est le 2 octobre. Dépôt des candidatures via : https://odyssee.enseignementsup-recherche.gouv.fr/procedures/recrutement-ec/offres-poste/fiche-offre-poste/253200. Pour toute question scientifique ou générale, merci de contacter Cyril Furtlehner et Guillaume Charpiat (cyril.furtlehner@inria.fr, guillaume.charpiat@inria.fr), et pour les aspects pédagogiques Lila Boukhatem (lila.boukhatem@universite-paris-saclay.fr). Sujet : L’intelligence artificielle est au cœur de la stratégie de l’Université Paris-Saclay. Le couplage entre IA, mathématiques appliquées et physique constitue un domaine stratégique, avec des applications allant du climat (modélisation spatio-temporelle, enrichissement de données) à la santé (médecine personnalisée, modélisation d’organes). Le thème du projet illustre la synergie entre les départements de mécanique numérique, d’apprentissage et de science des données du LISN, et s’inscrit dans les axes portés par DATAIA et le clusterIA via les chaires modulaires. Certains axes s’inscrivent dans des initiatives internationales pluridisciplinaires entre physique et informatique, comme la Simons Collaboration on Cracking the Glass Problem (https://scglass.uchicago.edu/). Le projet PhyML est aligné sur les priorités du LISN : – Projet multidisciplinaire à l’interface entre apprentissage, science des données, simulation et mécanique ; – Fort ancrage dans l’écosystème local, avec des collaborations structurées : projet ML4CFD (Machine Learning for Computational Fluid Dynamics, coll. IFPEN), projet HSA (Hybridation Simulation Apprentissage, IRT-SystemX) et thèse CD-ROM (Complementary Deep – Reduced Order Model), projet ANR SPEED (Simulating Physical PDEs Efficiently with Deep Learning, coord. Lionel Mathelin), ainsi que la start-up fondée par deux doctorants de l’équipe A&O (M. Nastorg et E. Meunier). Par ailleurs, l’interface entre IA et physique constitue un des axes de DataIA, centré sur les liens entre IA, systèmes complexes et physique statistique, soutenu par les possibilités de financement du ClusterIA. Profil du candidat : **Résumé du projet** L’objectif est de développer des interactions fécondes entre physique et apprentissage automatique. – Premier axe : AI4Science (SciML), en développant des méthodes d’apprentissage pour mieux simuler ou comprendre des phénomènes physiques. Cela inclut l’intégration de connaissances physiques (invariances, symétries et bris de symétrie, propriétés désirées, métriques entre systèmes dynamiques, PINNs, etc.) dans les tâches d’apprentissage. On peut concevoir pour cela des architectures neuronales et méthodes d’optimisation adaptées (graph-NN, transformers, schémas de discrétisation, NeuralODEs, modèles multi-échelles, génératifs, réseaux neuronaux group-equivariant, …). Le couplage entre simulation et apprentissage, dans un contexte riche en données, ouvre des perspectives majeures (accélération, stabilisation des simulations, résolution de problèmes inverses). – Deuxième axe : exploiter des concepts de physique théorique (ou mathématique) pour explorer les propriétés fondamentales de l’apprentissage automatique, par exemple la scalabilité (neural scaling laws) ou la dynamique d’entraînement, en particulier en haute dimension. Cela peut impliquer des outils classiques (théorie des matrices aléatoires, méthodes de répliques), ou des concepts plus récents spécifiques au ML (neural tangent kernel, régime de « lazy training »). On pourra explorer la dynamique au-delà du lazy regime, les régimes hors équilibre des Energy-Based Models via la dynamical mean field theory, ou encore les compromis confidentialité–utilité avec des modèles analytiques. Des concepts issus d’autres domaines de la physique ou des mathématiques appliquées peuvent aussi être pertinents, comme l’ont montré les processus de diffusion à la base des modèles génératifs. De manière générale, nous recherchons des profils à l’interface Physique/ML, aussi bien du côté ML4Physics que Physics4ML. Formation et compétences requises : Adresse d’emploi : LISN Université Paris-Saclay 1 rue René Thom 91190 Gif-sur-Yvette Document attaché : 202509091622_CPJ.pdf Oct 15 Wed 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire Informatique et Société Numérique – LS Durée : PU Contact : lionel.amodeo@utt.fr Date limite de publication : 2025-10-15 Contexte : L’Université de Technologie de Troyes (UTT) recrute un·e Professeur·e des Universités dans le domaine de l’Intelligence Artificielle et du Traitement statistique du signal et des images. Profil scientifique attendu : Section CNU: 26ème/27ème/61ème Fondements statistiques de l’IA Robustesse, explicabilité Décision statistique sous incertitude Recherche : Le poste est rattaché à l’axe MSAD – Modélisation Stochastique, Apprentissage et Décision de notre UR LIST3N. Enseignement : Programmes Ingénieurs et Masters Mastère Spécialisé® Big Data Engineer Nouveau Bachelor en Intelligence Artificielle (en partenariat avec le cluster Hi! PARIS). Projets structurants associés : Cluster Hi! PARIS – AI for Science, Business & Society Programme PEA Impact Université de Technologie Européenne EUt+ Prise de fonction : 1er janvier 2026 à Troyes Détails et dépôt de candidature : https://www.utt.fr/carrieres-emplois/poste-d-enseignant-chercheur Référence : Poste n° 253213 (ODYSSEE) Sujet : La recherche, la formation et le transfert de technologie sont les trois missions de l’Université de Technologie de Troyes (UTT). Établissement à la fois École d’Ingénieurs et Université, l’UTT est aujourd’hui parmi les 10 écoles d’ingénieurs les plus importantes en France, avec un rayonnement à l’international reconnu. Elle forme plus de 3100 étudiants chaque année, de post-bac à bac+8. Ses formations conjuguent excellence et innovation et sont adossées à une recherche de pointe. En effet l’UTT s’appuie sur ses 5 unités de recherche pour proposer des formations couvrant tout le spectre universitaire : Licence, Master, Ingénieur et Doctorat, des formations courtes professionnalisantes (Diplômes d’Université), des programmes de Mastère spécialisé®, de la VAE et des certifications en langues. Ces formations apportent aux diplômés de l’UTT les compétences recherchées par les entreprises grâce à une forte proximité avec celles-ci, notamment au travers de sa fondation. Le parcours d’ingénieur en 5 ans, habilité par la CTI, se singularise dans le paysage académique par des parcours individualisés dès la première année, ce qui permet à chaque étudiant d’adapter sa formation à son projet professionnel. Profil du candidat : Pour ce poste de Professeur des Universités un investissement équilibré entre les activités de formation, de recherche et un engagement au sein de l’UTT est attendu. La participation à la dynamique de projet font partie des missions. Enseignement : La personne recrutée interviendra principalement dans les enseignements en Bachelor IA et Mastère Spécialisé® Expert Big Data Engineer, en particulier ceux liés à l’intelligence artificielle et la Data. En complément, elle participera aux enseignements du Tronc Commun de l’UTT et en formation Génie industriel dans les domaines des probabilités et des statistiques, sous forme de cours, TD et TP. Elle prendra part à l’encadrement de projets et au suivi pédagogique des étudiants, notamment en apprentissage. La personne recrutée sera amenée à assumer par ailleurs des responsabilités dans la mise en oeuvre du nouveau Bachelor en IA qui ouvre à l’UTT en 2025, en partenariat avec IPParis, HEC, CNRS, INRIA au sein du cluster à vocation mondiale Hi !Paris. Une implication dans les tâches collectives de l’établissement ainsi qu’un engagement soutenu dans l’accompagnement des étudiants en alternance sont attendus. Recherche : L’Axe Modélisation Stochastique, Apprentissage et Décision (MSAD) mène des travaux reconnus en modélisation probabiliste, estimation, inférence et apprentissage statistique, qui contribuent à la visibilité scientifique du laboratoire LIST3N aux niveaux national et international (cf. Rapport HCERES 2023). Le renforcement de cette expertise par le recrutement d’un PU s’inscrit dans la stratégie de l’axe, qui vise à structurer une activité de recherche sur les fondements statistiques de l’IA, en lien avec la robustesse, la généralisation et la décision sous incertitude. Ce besoin se justifie d’autant plus que de nombreux travaux de l’Unité de Recherche LIST3N s’appuient sur des cas d’usage critiques (santé, cybersécurité, infrastructures vitales, maintenance industrielle), dans lesquels la maîtrise des outils statistiques est essentielle pour garantir la fiabilité, l’interprétabilité et la transférabilité des modèles d’IA. Dans une logique de rayonnement institutionnel, elle sera également appelée à travailler pour l’UTT au sein du cluster Hi!Paris, consortium interdisciplinaire de référence dans les domaines de l’intelligence artificielle et des sciences des données. À ce titre, elle contribuera à représenter la stratégie scientifique de l’UTT dans ce cadre partenarial, du cluster. Cette mission de représentation s’inscrira dans la stratégie globale de l’établissement visant à renforcer sa visibilité et son positionnement sur les enjeux liés à l’IA de confiance, à la modélisation sous incertitude et à la décision explicable. Le poste proposé correspond à un besoin prioritaire de l’axe « Modélisation stochastique, apprentissage et décision » (MSAD) du Laboratoire Informatique et Société́ Numérique (LIST3N). Les travaux de recherche menés au sein de cet axe visent à concevoir des modèles mathématiques innovants, des algorithmes de traitement des données ainsi que des outils d’aide à la décision. Ils reposent sur un socle disciplinaire commun englobant la modélisation stochastique, les méthodes statistiques, les techniques non paramétriques issues de l’apprentissage automatique (Machine Learning et Deep Learning) et l’Intelligence Artificielle (IA), ainsi que la conception de décisions robustes, qu’elles soient distribuées ou collaboratives. Outre les travaux théoriques et méthodologiques, elle doit être capable de porter des projets collaboratifs structurants institutionnels comme industriels au niveau national (CIFRE, Région, ANR) et européen, notamment dans le cadre de l’Université Européenne de Technologie (Eut+). Il est attendu de la personne recrutée de jouer un rôle de premier plan dans la thématique du traitement du signal et plus généralement de l’IA avec une composante d’animation et de coordination de projets structurants (existants ou à venir) au sein de l’établissement : • Pilotage du programme PEA Impact (3 partenaires – UTBM, IMT Albi et Université de Lomé) incluant les volets recherche (10 thèses en cotutelle France/Togo et formation de niveaux Licence et Master), • Coordination des activités de l’UTT dans le cadre du cluster Hi! PARIS (IP Paris, HEC Paris, Inria Saclay), • Coordination du Mastère spécialisé Expert Big Data Engineer et du Bachelor en Intelligence Artificielle. Ce poste s’inscrit dans la volonté du LIST3N de préserver son rayonnement dans un domaine directement en lien avec l’ambition n°3 du plan stratégique UTT 2035. Formation et compétences requises : Compétences souhaitées : ▪ Pédagogue ; ▪ Capacité à mener une recherche d’excellence ; ▪ Motivation, travail collaboratif et gestion de groupe ; ▪ Capacité à inscrire des notions fondamentales dans un cadre industriel ou dans une dimension d’ingénierie au sens large ; ▪ Capacité à enseigner en Anglais. Adresse d’emploi : Université de Technologie de Troyes, 12 rue Marie Curie à Troyes LIST3N Contacts: Dossier de candidature : recrutement-list3n@utt.fr Information concernant la recherche : Lionel.amodeo@utt.fr Information concernant l’enseignement : faicel.hnaien@utt.fr Document attaché : 202509161941_DRH25_08_PU-Approches Statistiques_IA-VF (1).pdf Oct 31 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : ISEN Yncrea Ouest Nantes Durée : 18 mois Contact : sylvain.lefebvre@isen-ouest.yncrea.fr Date limite de publication : 2025-10-31 Contexte : Ce contrat se déroule dans le cadre d’une chaire industrielle créée en 2021 entre l’entreprise ACOME, leader européen dans la création des câbles et le L@bISEN, le laboratoire de recherche de l’Institut Supérieur de l’Electronique et du Numérique (ISEN). Ce travail va être effectué par un(e) post-doctorant(e) ou un(e) ingénieur(e) de recherche, sur une période de de 12 mois, encadré(e) par un enseignant-chercheur de l’ISEN Ouest. Plus largement, la personne recrutée bénéficiera du soutien technique de l’équipe de recherche, équipe composée de 5 E/C et 2 ingénieurs. Sujet : En 2019 l’industrie manufacturière était responsable de 19% des déchets non dangereux produits chaque année [1]. A l’ère de la numérisation massive de l’industrie et du développement des technologies d’intelligence artificielle, la mise en place de systèmes et procédures permettant d’automatiser la détection et la correction des défauts de production promet d’impacter significativement les quantités rejetées lors de la production. La fabrication des câbles combine plusieurs activités complexes de production effectuées par différentes machines dans plusieurs ateliers. L’activité de production de l’entreprise concerne principalement la production de câbles pour différents secteurs industriels et notamment pour le secteur automobile. Il s’agit donc de fabrication de produits en long. Les procédés de fabrication pour ce genre de produits impliquent des flots continus de matières circulant dans et entre les machines. Des changements d’ordre de fabrication, des défauts de qualité des matières premières ou des conditions de production particulières produisent par exemple des produits ne pouvant être commercialisés qui sont alors des sources de coût pour l’entreprise et ont impact environnemental négatif. Il y a donc un besoin de fournir un outil d’analyse intelligent de plusieurs sources de données sur l’ensemble du processus de production, qui puisse recommander automatiquement aux ingénieurs qualité les paramètres optimaux pour minimiser les déchets. ACOME et les équipes de l’ISEN ont donc développé un lac de données rassemblant les informations de production et de qualité lors des phases antérieures du projet. L’analyse de ces données est en cours et permettra de faire émerger des recommandations et des outils de suivis appropriés pour les équipes qualité d’ACOME. Le post doctorant interviendra donc dans le développement de ces outils d’analyse, ce qui pourrait nécessiter la conception de nouvelles approches de recherche, comme : l’analyse de journaux existants et d’identification automatiques des éléments pouvant amener à générer des déchets [1], le développement de méthodes prédictives (IA, Apprentissage Automatique et Profond) pour l’estimation des quantités de déchets. D’autres approches peuvent utiliser des jumeaux numériques [2, 4] et l’apprentissage par renforcement pour virtuellement reproduire les conditions de l’usine et analyser l’impact des variations des paramètres de production. Enfin, les approches visant à optimiser l’ordonnancement des tâches, c’est-à-dire la planification des activités de production, dans le but de minimiser la quantité de déchets produits pourront être explorées [3]. Références : [1] Duong, L. T., Trave-Massuyes, L., Subias, A., & Roa, N. B. (2021). Assessing product quality from the production process logs. The International Journal of Advanced Manufacturing Technology, 117, 1615-1631. [2] Howard, D. A., Ma, Z., & Jørgensen, B. N. (2021). Digital Twin Framework for Industrial Production Processes. Energy Informatics, 4(Suppl. 1), P9. [3] Le Hesran, C., Ladier, A. L., Botta-Genoulaz, V., & Laforest, V. (2019). Operations scheduling for waste minimization: A review. Journal of cleaner production, 206, 211-226. [4] Botín-Sanabria, D. M., Mihaita, A. S., Peimbert-García, R. E., Ramírez-Moreno, M. A., Ramírez-Mendoza, R. A., & Lozoya-Santos, J. D. J. (2022). Digital twin technology challenges and applications: A comprehensive review. Remote Sensing, 14(6), 1335. Profil du candidat : Le candidat devra montrer une solide expertise dans un ou plusieurs des domaines suivants : – Avoir des prérequis solides en : IA, Statistique, Big Data Analysis, Big Data Science, Machine Learning, Deep Learning, etc. – Excellente compétence en programmation orientée-objet (Python ou Java, etc.) – Avoir une expérience dans la proposition, développement, test des modèles de statistique inférentielle, de corrélation, de régression, de classification ou de clustering, – Maitriser le Français et l’Anglais, – Mener des recherches de haut-niveau et publier des articles scientifiques dans des conférences et des revues internationales à comité de lecture. Formation et compétences requises : Expériences appréciables : – Une expérience industrielle, – Connaissance du SQL. Adresse d’emploi : ISEN Ouest – Campus de Nantes 33 QUATER Av. du Champ de Manœuvre, 44470 Carquefou
|
Offres de thèses
May 31 Sat 2025 Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : ONERA Durée : 3 ans Contact : valentina.dragos@onera.fr Date limite de publication : 2025-05-31 Contexte : A. Problématique générale et contexte ————————————————— Le sujet de thèse aura pour objectif central l’étude de l’apport de traits linguistiques de nature sémantique dans la caractérisation et la détection de contenus en ligne de nature toxique (e.g. contenu haineux, contenu extrémiste, contenu discriminant). Plus précisément, les connaissances linguistiques examinées seront en lien : (i) d’une part avec l’analyse du degré d’engagement (e.g. « X est Y » vs. « je vous jure/j’ai la preuve que X est Y ») ; (ii) d’autre part avec l’analyse des émotions (e.g. « quel horrible personnage ! »). Concernant le trait linguistique (i), la problématique de la thèse prend place au sein de travaux visant à examiner de quelle manière les émotions peuvent constituer un trait linguistique pertinent en vue de l’amélioration de systèmes d’identification automatique de discours haineux en ligne, visée encore largement inexplorée en traitement automatique des langues (TAL) [1] et ce alors que plusieurs études ont montré pourtant que la présence d’émotions – en particulier négatives – est un facteur favorable à la propagation de contenus sur Internet (e.g.[2], [3]). Concernant le trait linguistique (ii), la thèse prend place au sein de réflexions menées autour du fait que le degré d’engagement constitue un signe de radicalité et l’on sait que des positionnements radicaux sont de nature à être à plus diffusés que d’autres sur internet, contribuant potentiellement à un phénomène de désinformation [4]. Le sujet prend place dans le contexte sociétal actuel dans lequel sont perceptibles diverses menaces liées à l’adhésion de différentes catégories de personnes aux à des idéologies et mouvances extrémistes (e.g. extrême droite, masculinisme). L’utilisation des plateformes sociales, adoptées par un nombre croissant d’utilisateurs, constitue un vecteur important de diffusion de ces idéologies et la production massive de données disponibles en ligne a déclenché une importante activité de recherche autour de l’analyse de la subjectivité, entendue comme l’expression des goûts, opinions, croyances ou convictions des utilisateurs [5]. Sujet : B. Objectifs scientifiques ——————————– Les objectifs scientifiques s’organiseront autour de deux volets principaux : 1. La construction de ressources linguistiques sous la forme de corpus annotés selon les traits (i) et (ii) ainsi que la construction d’ontologies relevant globalement de la représentation de la subjectivité ; 2. Le développement de méthodes de détection automatique de contenus toxiques capables d’exploiter les connaissances modélisées par ces ressources. 1. Construction de ressources linguistiques Plusieurs corpus représentatifs seront constitués pour décrire les contenus toxiques sur Internet. La construction du corpus s’appuiera sur une liste d’éléments (mots clés, patrons lexicaux) dont l’équipe d’accueil dispose actuellement grâce aux résultats de projets antérieurs, dont notamment FLYER (Artificial intelligence for extremist content analysis, projet ANR ASTRID 2019). Cette liste sera enrichie et mise à jour en explorant de nouvelles données collectées au cours de la thèse. L’annotation des données sera réalisée en utilisant des schémas d’annotation existants, pour décrire des unités linguistiques émotionnelles [6] et pour décrire le degré d’engagement [7], [8]. On visera également ici à construire des ontologies décrivant la subjectivité, incluant les traits d’émotions et d’’engagement des utilisateurs, et s’appuyant là aussi sur des travaux existants [9], [10], [11] . 2. Développement de méthodes de détection automatique de contenus toxiques capables d’exploiter les connaissances modélisées en 1. Ce deuxième volet des recherches concernera l’augmentation des plongements sémantiques grâce aux annotations en s’appuyant sur des travaux récents qui ont étendu les principes des plongements sémantiques en considérant les représentations des concepts. Ces études utilisent des graphes conceptuels, des ontologies ou taxonomies, et intègrent ainsi les relations conceptuelles définies de manière explicite par ces ressources. Plusieurs travaux ont d’ailleurs étudié comment l’utilisation de relations telles que la synonymie, l’antonymie ou l’hyperonymie permet d’améliorer la qualité des plongements sémantiques, c’est-à-dire la précision de la sémantique capturée par les représentations vectorielles [14]. Ce deuxième volet de recherches abordera également l’utilisation de la génération augmentée de récupération (Retrieval Augmented Generation – RAG) afin de faciliter l’exploration des dimensions sémantiques principalement visées (émotions et engagement du locuteur) dans les corpus. Cette technique optimise les résultats fournis par un grand modèle de langue (Large Language Model – LLM) en faisant appel à une base de connaissances externe aux sources de données ayant été utilisées pour entraîner le modèle avant de générer une réponse. L’utilisation d’une ontologie peut alors améliorer la pertinence des réponses fournies par un LLM [12]. Tandis que les LLMs et les plongements sémantiques sont construits à partir de connaissances génériques, l’objectif de la thèse est donc d’intégrer des connaissances spécifiques, issues d’ontologies et d’annotations linguistiques pour le traitement des contenus toxiques collectés en ligne. La thèse étudiera ensuite l’impact de cette intégration sur les performances des modèles. Les recherches permettront de développer des méthodes d’intelligence artificielle hybrides, au carrefour de la représentation des connaissances et de l’apprentissage automatique [13] ainsi que dans une réflexion renouvelée sur l’apport des connaissances linguistiques aux systèmes de détection de discours de haine [15]. Profil du candidat : Eq. Master en Traitement Automatique des Langues (TAL) ou Ingénierie des Connaissances (IC) ou Ecole d’ingénieurs (maths/info) – Bonnes compétences en programmation, notamment sous Python – Des connaissances en annotation linguistique sémantique seront un vrai plus Modalités de candidature ———————————- Co-direction : Valentina DRAGOS (ONERA, Palaiseau)/ Delphine BATTISTELLI (MoDyCo, Nanterre) Salaire : 2488€/brut mensuel Début : septembre 2025 Nationalité européenne requise Date limite de candidature : 15 avril 2025 Dossier de candidature à envoyer au plus tard le 15 avril 2025 aux deux encadrantes ci-dessus désignées : CV, lettre de motivation, relevés de notes du M1 et du M2, le nom d’un.e référent.e à contacter Formation et compétences requises : Eq. Master en Traitement Automatique des Langues (TAL) ou Ingénierie des Connaissances (IC) ou Ecole d’ingénieurs (maths/info) Adresse d’emploi : ONERA 6 Chem. de la Vauve aux Granges, 91120 Palaiseau Document attaché : 202503241401_THESE_ONERA.pdf Jun 1 Sun 2025 Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : Hubert Curien Lab (UMR5516, Computer Sciences) & L Durée : 3 years Contact : mathias.gery@univ-st-etienne.fr Date limite de publication : 2025-06-01 Contexte : See attached document Sujet : This PhD project aims to design a personalized recommendation system for physical activity tailored to older adults. The objective is to provide individualized exercise programs based on users’ physical capacities, preferences, environment, and feedback (e.g., perceived exertion, fatigue), ensuring safe progression while improving adherence and the effectiveness of home-based physical activity. The algorithm will combine personalized, adaptive (evolving over time), and collaborative (learning from users with similar profiles) features. The project is interdisciplinary, at the intersection of computer sciences (AI, recommender systems) and exercise physiology. Profil du candidat : See attached document Formation et compétences requises : The candidate will preferably hold a Master’s degree (or equivalent) in Computer Science. Applications from students with a Master in Sports Science (STAPS) and strong skills in programming or algorithms will also be considered. The candidate is expected to show a strong interest in sport, adapted physical activity, and/or health. French language skills are not mandatory, but the candidate must be willing to learn French. In any case, the ability to communicate in English is required. Adresse d’emploi : Hubert Curien Lab UMR CNRS 5516, campus Manufacture, Saint-Étienne & Laboratoire Interuniversitaire de Biologie de la Motricité Campus Santé, Saint-Étienne Document attaché : 202505221256_phd_person-age_CNRS.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LISIC – Univ. Littoral Côte d’Opale Durée : 3 years Contact : esteban.bautista@univ-littoral.fr Date limite de publication : 2025-06-01 Contexte : Many complex systems — such as the Internet, transportation networks, and financial systems — produce data that naturally takes the form of temporal graphs, where each link between nodes is time-stamped. Temporal graphs allow us to model and analyze interactions over time, such as network traffic between computers, scheduled trips between stations, or transactions between bank accounts. A common challenge in working with such graphs is identifying subsets of the temporal graph that optimize certain properties, like density, cost, duration, etc. These tasks are essential for applications such as anomaly detection, cybersecurity, or route planning, but they typically involve NP-hard combinatorial problems, making them impractical to solve exactly. This PhD project explores a new direction for tackling these problems using artificial intelligence. While heuristic methods exist, they often struggle to balance speed and accuracy in temporal graph settings. In contrast, recent advances show that AI models can be trained to solve combinatorial problems on static graphs efficiently, yet their potential remains largely unexplored in the temporal graph setting. This project aims to bridge that gap by developing AI-based methods that learn to solve combinatorial optimisation problems emerging on temporal graphs. Sujet : This PhD project aims to explore the potential of machine learning methods as a means to solve combinatorial optimization problems on temporal graphs. We target three specific goals: Goal 1: End-to-end learning framework. We aim to design a framework that trains neural models to directly map problem instances to solutions in temporal graphs. While such approaches exist for static graphs, our challenge is to extend them to the temporal setting by defining suitable loss functions and training strategies. Goal 2: A novel filter-based architecture. We plan to develop a neural architecture that treats optimization as a filtering task — discarding irrelevant links to isolate the optimal subgraph. Building on spectral methods and recent work in temporal graph signal processing, we will explore how filters can be effectively defined and learned in a frequency-structural domain. Goal 3: High-impact applications. We will validate our methods on two key applications: – Anomaly localization: Many systems detect anomalies but fail to pinpoint their origin. We aim to learn to localize anomalies without relying on assumptions about their structure. – Temporal graph exploration: In transportation networks, finding optimal exploration routes is NP-hard. Our goal is to develop practical AI-based methods that scale better than current approximations. Profil du candidat : We look for highly motivated candidates with relevant experience in computer science, graph algorithms, and/or deep learning. Experience in Python programming and operations research will be a plus. —— Application ——- Interested candidates are invited to send an e-mail to • esteban.bautista@univ-littoral.fr • rym.guibadj@univ-littoral.fr • gilles.roussel@univ-littoral.fr while attaching the documents that can support their application: • your resume; • a cover letter; • your transcripts from the last year of B.Sc to the last year of M.Sc. (if the latter is already available); • two reference letters or the names and means of contact of two academic advisers. Applications will be reviewed on a rolling basis until the position is filled. Formation et compétences requises : Adresse d’emploi : LISIC Laboratory – Université du Littoral Côte d’Opale – Site Saint-Omer (Hautes de France), France Document attaché : 202504141925_PhD_COTEG.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LISIC – Univ. Littoral Côte d’Opale Durée : 3 years Contact : esteban.bautista@univ-littoral.fr Date limite de publication : 2025-06-01 Contexte : Many real-world systems — such as industrial IoT networks, online marketplaces, and social platforms — produce data that naturally forms temporal graphs, where each interaction represents who interacted with whom, and when. Temporal graphs offer a powerful way to capture the evolving structure of complex systems and are key to detecting critical phenomena like fraud, cyberattacks, or the spread of misinformation. However, building machine learning tools for temporal graphs remains a major challenge, as common notions of similarity — essential for tasks like classification, prediction, or anomaly detection — are not easily defined in this context. This PhD project tackles that challenge by developing interpretable methods to compare temporal graphs. The core idea is to use tensor decompositions, which naturally represent temporal graphs as three-dimensional arrays and break them down into simpler/elementary building blocks. Such temporal graph “atoms” can be leveraged to identify what fundamental building blocks are common and different across temporal graph instances, resulting in a set of tools that not only enhance machine learning on temporal graphs but also offer insights into the underlying patterns driving complex systems. Sujet : This PhD project aims to lay the foundation for interpretable machine learning on temporal graphs by developing similarity metrics that reveal meaningful patterns across time-evolving systems. To achieve this, we pursue three main goals: Goal 1: A new tensor decomposition for temporal graphs. We will develop a decomposition method tailored to the unique challenges of temporal graphs — including their binary and sparse nature, multi-scale patterns, and varying node sets or time intervals. Existing approaches fall short in capturing these aspects jointly. Our method will extend recent advances in geometric and coupled decompositions to extract shared and distinct motifs across graphs. Goal 2: Similarity metrics, machine learning tasks, and toolbox. Using our decomposition, we will define interpretable metrics that compare temporal graphs based on their structure, dynamics, and scale. These metrics will power machine learning algorithms for clustering, segmentation, change detection, and prediction. All methods will be implemented in a unified Python toolbox. Goal 3: Applications to real-world data. We will validate our methods on two domains. On Wikipedia, we aim to uncover patterns behind successful collaborations by analyzing contributor interactions. In Industry 4.0 settings, we will detect abnormal behaviors in sensor networks to identify faults or cyberattacks. Profil du candidat : We look for highly motivated candidates with relevant experience in computer science, data science, and graph machine learning. Experience in Python programming and signal processing will be a plus. Interested candidates are invited to send an e-mail to • esteban.bautista@univ-littoral.fr • laurent.brisson@imt-atlantique.fr • matthieu.puigt@univ-littoral.fr while attaching the documents that can support their application: • your resume; • a cover letter; • your transcripts from the last year of B.Sc to the last year of M.Sc. (if the latter is already available) • two reference letters or the names and means of contact of two academic advisers. Applications will be reviewed on a rolling basis until the position is filled. Formation et compétences requises : Adresse d’emploi : LISIC Laboratory – Université du Littoral Côte d’Opale – Site Saint-Omer (Hautes-de-France), France Document attaché : 202504141906_PhD_Data2Laws.pdf Jun 2 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIAS ISAE-ENSMA et CRITT Informatique Durée : 3 ans Contact : baron@ensma.fr Date limite de publication : 2025-06-02 Contexte : Le CRITT Informatique (Centre Régional d’Innovation et de Transfert de Technologie) est une structure dédiée au transfert de technologie, labellisée CRT (Centre de Ressources Technologiques) au niveau national par le ministère de la Recherche. Ces centres ont été créés pour accompagner les entreprises dans leur développement et leur transformation technologique. Dans ce contexte, le CRITT Informatique est régulièrement sollicité par des entreprises du domaine industrielle (aéronautique, ferroviaire, militaire, etc.) pour les accompagner dans la création de dictionnaires de composants, facilitant ainsi les échanges entre les entreprises. Ces dictionnaires de composants appelés des ontologies peuvent s’appuyer sur des standards comme par exemple OntoML (ISO 13584-32). Un travail de mapping est réalisé pour définir les ontologies à partir des concepts et des données de l’entreprise en accord avec ces standards. Ce travail est coûteux en temps, car la compréhension des données métiers est souvent complexe et nécessite alors l’analyse de nombreux documents structurés et non structurés lorsqu’ils sont disponibles. L’utilisation des IA génératives de type LLM (Large Language Model) pourrait assister les équipes du CRITT dans la construction des ontologies. C’est pourquoi le CRITT a sollicité le LIAS (Laboratoire Informatique et d’Automatique pour les Systèmes), qui travaille déjà sur l’application des LLM aux données historiques et sur le mapping de ces données pour construire des ontologies. Plus spécifiquement, les travaux du LIAS dans le cadre du projet ANR Digitalis (https://digitalis.humanities.science) s’appuient sur un modèle conceptuel répandu CDOC-CRM ainsi que sur des IA génératives commerciales, comme GPT. L’utilisation de ces IA générative facilite le travail, car elles possèdent déjà une connaissance du modèle CDOC-CRM. Sujet : Un des enjeux principaux de cette thèse est de considérer que l’IA générative ne possède pas de connaissance préalable du modèle qui définit la structure de l’ontologie. Il est possible d’explorer l’extension des connaissances de ces IA génératives en s’appuyant, par exemple, sur le contenu du standard OntoML. Ainsi, un objectif à envisager serait d’utiliser la technique RAG (Retrieval Augmented Generation) pour alimenter en contexte la phase d’interrogation de l’IA générative. Toutefois, cette solution se heurte souvent à des problèmes de contextes insuffisants ou trop importants pour que l’IA générative puisse répondre efficacement. Ces problèmes de contexte ont été abordés au LIAS dans un autre domaine : les bases de connaissances sémantiques. Cette piste de recherche permettrait d’affiner le contexte à transmettre à l’IA générative et d’expliquer les raisons d’un manque ou d’un excès de contexte. Dans un souci de confidentialité des données traitées par les IA génératives, souvent exigée par les entreprises, l’inférence sur site (on-premise) des IA génératives représente un autre défi. Le défi du déploiement et de la qualité des résultats des modèles d’IA générative inférés est d’assurer une performance équivalente à celle des solutions commerciales. Par ailleurs, l’inférence sur site permettra d’étudier l’efficacité énergétique des solutions mise en oeuvre, car le CRITT Informatique doit répondre aux exigences régionales en la matière. Le cadre de cette thèse Cifre regroupe des problématiques de recherche liées à la construction d’ontologies via des IA génératives. Les besoins du CRITT Informatique incluent également le développement d’outils informatiques pour faciliter la mise en oeuvre des recherches obtenues dans cette thèse. Profil du candidat : Le candidat devra être titulaire d’un Master 2 ou d’un diplôme d’ingénieur Formation et compétences requises : Le candidat devra posséder des connaissances en développement logiciel et manipulation de modèles d’IA générative. Un bon niveau en français et en anglais est nécessaire. Adresse d’emploi : Laboratoire LIAS – ISAE-ENSMA Téléport 2 – 1 avenue Clément Ader BP 40109 86961 Chasseneuil France Document attaché : 202505080828_2025_lias_idd_critt_cifre_thesis_fr.pdf Jun 5 Thu 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIS Durée : 36 mois Contact : etienne.thuillier@univ-amu.fr Date limite de publication : 2025-06-05 Contexte : Le transport maritime assure 90% des échanges mondiaux de biens et marchandises. D’un point de vue environnemental, il est de loin le moyen de transport le plus efficient à la tonne de marchandise transportée, bien qu’il doive lui aussi relever le défi de réduire significativement ses émissions. Aujourd’hui l’industrie maritime a initié une profonde transformation qui nécessite un effort important d’innovation et de recherche de la part de l’ensemble des acteurs de l’industrie pour lever les verrous technologiques et scientifiques actuels. Le projet TNTM (Transformation Numérique du Transport Maritime) s’intègre dans ce contexte d’optimisation de l’industrie maritime et se propose d’agir sur l’ensemble des acteurs aussi bien en mer que sur terre, pour réussir le pari d’un transport moins-carboné voire décarboné. Ainsi, un des axes pour parvenir à ces objectifs est l’excellence opérationnelle qui vise à optimiser l’usage des navires. Cette excellence opérationnelle est basée sur deux innovations majeures, la première innovation est celle de l’IoT et des données, encore très peu présentes sur les navires et les conteneurs maritimes. La deuxième innovation est liée à l’utilisation d’algorithmes d’optimisation pour améliorer la chaîne logistique maritime du transport par conteneur, en intégrant les dernières avancées de la recherche opérationnelle, des méthodes d’optimisation, de la simulation et du traitement de données (machine learning, etc.). C’est dans ce cadre que se situe cette thèse. Aujourd’hui, de multiples acteurs différents (sites de chargements et déchargements, transporteurs, terminaux, etc.) sont impliqués dans le transport d’un conteneur. Chaque passage de responsabilité entre deux acteurs crée un risque de mauvaise exécution du plan de transport et cette chaîne logistique est désynchronisée. Il n’existe souvent aucune contextualisation dynamique du plan de voyage du conteneur, et ce, même en ayant connaissance des données issues du conteneur intelligent. Par exemple, les zones d’intérêts géographiques (ZOI) du plan de voyage sont créés manuellement par les utilisateurs et les clients. Autre exemple, des surveillances et des extractions manuelles des données sont réalisées quotidiennement pour fournir des alertes et des informations au client face à des événements inattendus. Sujet : Le contexte scientifique de cette thèse relève du Trajectory (Data) Mining, i.e., un ensemble de techniques visant à explorer, analyser, et fouiller des données spatio-temporelles issues des trajectoires d’objets mobiles. Différentes problématiques sont associées à ce domaine, comme par exemple l’analyse exploratoire, le clustering de trajectoires, la classification, la détection d’anomalies, etc. Parmi les nombreuses problématiques liées à ce domaine, nous nous focaliserons dans cette thèse sur : (1) la reconstruction géographique des trajectoires à partir de données de géopositionnement de conteneurs maritimes, et (2) l’enrichissement sémantique des trajectoires, notamment par l’identification dynamique de ZOI. Il existe de nombreux modèles mathématiques pour reconstruire des trajectoires à partir du clustering ou de l’identification de patterns dans des données spatio-temporelles. L’algorithme DBscan, et ses variantes, sont souvent les plus utilisés car bien adaptés aux traces de positionnement fournies par les technologies GNSS (Global Navigation Satellite System) ou aux données issues des télécommunications ou du radiopositionnement (Call Detail Records, indoor-positioning, etc.). Le challenge ici réside dans l’application de tels modèles à des données à grosse granularité temporelle comme celles utilisées dans le projet TNTM et qui sont des données AIS (Automatic Identification System). Concernant l’enrichissement sémantique des trajectoires, le problème consiste à représenter et exploiter un ensemble d’informations contextuelles telles que la détection du mode de transport, le motif et le contexte de déplacement, la découverte des zones d’intérêts, etc. Dans le cadre de cette thèse nous nous limiterons à la détection automatique des ZOI et à leur classification. L’extraction de ZOI à partir de données spatio-temporelles se base généralement sur les algorithmes de reconstruction des trajectoires. On observe toutefois un recours accru aux données issues des connaissances terrain (données sursol, connaissance métier, etc.) pour enrichir et affiner la reconstruction de telles zones. C’est sur ce dernier point que nous concentrerons nos efforts pour développer un modèle de classification des ZOI. Les principaux objectifs du projet de thèse sont les suivants : * Analyser la qualité des données issues des conteneurs intelligents. * Concevoir un modèle de représentation des trajectoires. * Identifier les ZOI et leur emprise spatiale à partir des trajectoires spatio-temporelles des conteneurs. * Classifier ces ZOI en fonction des informations contextuelles et des connaissances métier de notre partenaire industriel dans le projet TNTM. Profil du candidat : * Titulaire d’un master 2 ou diplome d’ingénieur en informatique Formation et compétences requises : * Solides compétences en apprentissage automatique (machine learning) * Solides compétences en programmation objet et bases de données (python est un plus) * Bonne expérience en statistiques * Connaissances sur les SIG * Bonne communication orale et écrite en français et anglais Adresse d’emploi : Laboratoire LIS, Marseille (Campus St Jérôme) Document attaché : 202205091335_Thesis_TNTM.pdf Jun 6 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : LISTIC/LMVLMV Durée : 36 mois Contact : yajing.yan@univ-smb.fr Date limite de publication : 2025-06-06 Contexte : Sujet : Satellite based remote sensing offers a unique source of information to monitor the environnement, with fine spatial resolution, wide coverage and frequent revisit. This enables addressing the challenge of natural hazard monitoring and forecasting, which has a significant societal impact. The inverse modeling of surface displacement is one of the major techniques of exploring the subsurface feature of volcanoes. In this Ph.D thesis, we consider the classification of volcanic mechanisms from Interferometry Synthetic Aperture Radar (InSAR) surface displacement estimations. This work is challenging, because surface displacement fields lack distinct features that can reliably distinguish different volcanic mechanisms at depth. We will begin with a blind supervised learning experiment based on synthetic simulations and frugal machine learning models (e.g. random forest) in order to validate the proof-of-concept (Indeed, Cayol et al. 2014 proposed a tedious approach based on a manual decision tree). Afterwards, we can take two approaches: on one hand, increasing the model expressivity, such as transitioning to frugal deep learning models, with the aim of improving classification accuracy; on the other hand, incorporating multimodal input to the model. This includes using directional displacement gradient’s value and sign, as well as horizontal/vertical displacement ratio to complement displacement values, based on expert’s knowledge. Furthermore, inspired by the approach adopted by volcanologists for a similar task – recognizing key physical parameters of fracture displacement (such as faults, magma intrusions, or sheared intrusions), as well as the dip and depth of the fracture and the ratio of host rock stress exerted on the fracture – we aim to train deep learning models to extract physical features. By incorporating physics-informed loss functions, we seek to enhance the universality of solutions proposed by previous deep learning models. Real InSAR displacement measured at the Piton de la Fournaise volcano since 1998 and previously analyzed through Monte Carlo inversions (Dumont et al. 2022) will be used for further validation in real applications. Selected references : Cayol V., Carry T., Michon L, Chaput M., Famin V., Bodart O., Froger J.L., Romagnoli C. (2014), Sheared sheet intrusions as mechanism for lateral flank displacement on basaltic volcanoes: Applications to Réunion Island volcanoes, Journal of Geophysical Research, 119, 7607-7635. Dumont, Q., Cayol, V., Froger, J. L., & Peltier, A. (2022). 22 years of satellite imagery reveal a major destabilization structure at Piton de la Fournaise. Nature communications, 13(1), 2649. Profil du candidat : The Ph.D candidate should have good skills in machine learning or volcanology. Formation et compétences requises : Adresse d’emploi : LISTIC, Annecy LMV, Clermont-Ferrand Jun 15 Sun 2025 Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : LIST3N/UTT et Université de Sfax Durée : 36 mois Contact : malika.kharouf@utt.fr Date limite de publication : 2025-06-15 Contexte : Cette thèse vise à développer une approche d’analyse spectrale des graphes de Barabasi- Albert (BA) à l’aide de la théorie des matrices aléatoires et à appliquer ces techniques à la médecine personnalisée en radiologie mammaire. L’objectif est d’exploiter les caractéristiques spectrales des réseaux complexes pour améliorer la détection et la classification des anomalies en imagerie médicale, notamment dans le cadre du diagnostic du cancer du sein. Sujet : Nous examinerons les propriétés spectrales des graphes BA afin d’extraire des motifs exploitables pour l’analyse des images médicales. La distribution des valeurs propres des matrices d’adjacence sera explorée afin de détecter les schémas structurels caractéristiques des graphes, en mettant en évidence les réseaux fortement connectés susceptibles de refléter des anomalies. Lien entre signatures spectrales et anomalies médicales: L’utilisation de la théorie des matrices aléatoires nous permettra de modéliser et de mieux comprendre les variations spectrales associées aux différents types de tumeurs mammaires. En analysant les perturbations dans la structure spectrale des graphes, nous serons en mesure de détecter des motifs anormaux liés aux pathologies médicales. Développement d’un modèle de fusion multimodale dynamique: En combinant les informations extraites des graphes avec des techniques avancées d’apprentissage automatique, nous proposerons un système de fusion multimodale adaptatif, capable d’ajuster dynamiquement les données en fonction de leur pertinence clinique. Ce système exploitera les propriétés spectrales pour réduire la redondance et concentrer l’analyse sur les modalités les plus informatives. Techniques de détection et d’intelligence artificielle: Nous utiliserons des techniques de détection d’anomalies basées sur l’analyse spectrale et l’intelligence artificielle, telles que les autoencodeurs variationnels et les réseaux neuronaux profonds. Ces approches permettront d’améliorer la capacité du modèle à différencier les images normales et anormales, en exploitant les signatures spectrales extraites. Validation clinique du modèle: Notre approche sera validée sur des données hospitalières réelles issues du CHU de Sfax, permettant une vérification rigoureuse des performances du modèle et de son utilité clinique. L’impact de notre modèle sur l’optimisation des protocoles de diagnostic sera également examiné. Profil du candidat : Master 2 Mathématiques Appliquées, spécialisé en Statistique, ou formation équivalente de type école d’ingénieurs. Des compétences en informatique et logiciel de statistique sont fortement souhaitées (Python et/ou R). Formation et compétences requises : Master 2 Statistique ou équivalent école d’ingénieurs Adresse d’emploi : Université de technologie de Troyes et université de Sfax Document attaché : 202505160654_ThèseStat-Cotutelle-UTT-Sfax.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : GREYC UMR 6072 Durée : 36 mois Contact : abdelkader.ouali@unicaen.fr Date limite de publication : 2025-06-15 Contexte : Cf. document attaché Sujet : Cf. document attaché Profil du candidat : Cf. document attaché Formation et compétences requises : Cf. document attaché Adresse d’emploi : Université de Caen Normandie (Caen, Normandy, France: GREYC, Campus Côte de Nacre). Document attaché : 202505060848_GMLAS-PhD-25.pdf Jun 24 Tue 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIST3N Durée : 3 ans Contact : alexandre.baussard@utt.fr Date limite de publication : 2025-06-24 Contexte : Sujet : voir le descriptif de la thèse “High-dimensional learning for automatic and robust target detection in hyperspectral imagery” dans le fichier attaché Profil du candidat : Formation et compétences requises : Adresse d’emploi : Université de Technologie de Troyes Document attaché : 202504241217_PhD_target_detection_hyperspectral_imagery.pdf Jun 26 Thu 2025 Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : Laboratoire d’Informatiques et des Systèmes, Univ Durée : 36 mois Contact : adeline.paiement@lis-lab.fr Date limite de publication : 2025-06-26 Contexte : The PhD will be supervised by Adeline Paiement at Laboratoire d’Informatique et des Systèmes (LIS). This project is part of an existing and very active partnership with the LESIA laboratory at Paris Observatory. The PhD will take place in the LIS Toulon laboratory. The PhD student will have access to the computing resources of LIS, and in particular to its high-performance computing cluster. The PhD will be integrated into and will complement the ANR JCJC PRESAGE (PREdicting Solar Activity using machine learning on heteroGEneous data) project (Oct. 2021 – Feb. 2027, partnership with Jean Aboudarham at LESIA). It will exploit and adapt the machine learning methods being developed within PRESAGE for the analysis of multimodal observations. ************************** La thèse sera dirigée par Adeline Paiement, MdC HDR au Laboratoire d’Informatique et des Systèmes (LIS). Ce projet s’inscrit dans un partenariat existant et très actif avec le laboratoire LESIA à l’Observatoire de Paris. La thèse se déroulera dans le laboratoire LIS Toulon. Le doctorant aura accès aux ressources de calcul du LIS, et notamment à son cluster calcul haute performance. La thèse s’intégrera dans et complétera le projet ANR JCJC PRESAGE (PREdicting Solar Activity using machine learning on hétéroGEneous data) (oct. 2021 – fév. 2027, partenariat avec Jean Aboudarham au LESIA). Elle exploitera et adaptera les méthodes de machine learning en cours de développement dans le cadre de PRESAGE pour l’analyse des observations multimodales. Sujet : Solar activity events appear to be strongly associated with the evolution of solar structures, which are objects in the solar atmosphere that differ from the “quiet” atmosphere and appear, evolve, and disappear over a period of a few days to months. The exact mechanisms of solar activity and the links between solar activity events and solar structures are still poorly understood. We hypothesize that solar structures can have typical behaviors, both isolated and in interaction with other structures and with solar activity events. Such patterns of behavior have never been researched. Our goal is to discover them, if they exist, using machine learning methods. Solar structures are traditionally studied individually and using only one observation modality at a time. This greatly limits the possibilities of discovering behavior patterns. Using machine learning tools, this project will carry out the first longitudinal study of a large number of structures. In addition, it will co-exploit multimodal and heterogeneous observations of the sun that reveal different facets of the Sun. The expected results of this exploratory project are: 1) to obtain information on the existence of typical behaviors for solar structures, 2) to model these behaviors and provide a physical interpretation, 3) to link behaviors and their anomalies to solar activity events. These behavioral models would open up the prospect of a better understanding and prediction of solar activity events, with applications in particular for space weather. ************************** Les événements d’activité solaire semblent être fortement associés à l’évolution des structures solaires, qui sont des objets de l’atmosphère solaire qui diffèrent de l’atmosphère « calme » et qui apparaissent, évoluent et disparaissent sur une période de quelques jours à mois. Les mécanismes exacts de l’activité solaire et les liens entre les événements d’activité solaire et les structures solaires sont encore mal compris. Nous émettons l’hypothèse que les structures solaires peuvent avoir des comportements types, à la fois isolés et en interaction avec d’autres structures et avec les événements d’activité solaire. De tels modèles de comportement n’ont jamais été recherchés. Notre objectif est de les découvrir, s’ils existent, à l’aide de méthodes d’apprentissage automatique. Les structures solaires sont traditionnellement étudiées individuellement et à l’aide d’une seule modalité d’observation à la fois. Cela limite grandement les possibilités de découverte de comportements. Grâce aux outils d’apprentissage automatique, ce projet va réaliser la première étude longitudinale d’un grand nombre de structures. De plus, il co-exploitera des observations multimodales et hétérogènes du soleil qui en révèlent différentes facettes. Les résultats attendus de ce projet exploratoire sont : 1) obtenir des informations sur l’existence de comportements typiques pour les structures solaires, 2) modéliser ces comportements et en fournir une interprétation physique, 3) relier les comportements et leurs anomalies à des événements d’activité solaire. Ces modèles de comportement ouvriraient la perspective d’une meilleure compréhension et prédiction des événements d’activité solaire, avec des applications notamment pour la météorologie spatiale. Profil du candidat : MSc in computer science, data science, or physics, with strong experience in programming. Experience in machine learning and/or solar physics would be appreciated. ************************** Master 2 ou diplôme d’ingénieur en informatique, science des données, ou physique, avec expérience forte en programmation exigée, et expérience souhaitable en apprentissage automatique et/ou physique solaire. Formation et compétences requises : Adresse d’emploi : Laboratoire LIS, Université de Toulon, campus de La Garde Av. de l’Université 83130 La Garde Document attaché : 202506132029_announcement.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIRIS Durée : 3 ans Contact : stefan.duffner@insa-lyon.fr Date limite de publication : 2025-06-26 Contexte : Sujet : Multi-modal explainable machine learning for exploring consciousness recovery of comatose patients Profil du candidat : Formation et compétences requises : Adresse d’emploi : LIRIS INSA Lyon et CRNL, Université Lyon 1 Document attaché : 202506122101_Fiche_de_poste_agoracoma_phd.pdf Jun 30 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : GREYC (Caen) ou CARMeN(Rouen) ,à discuter avec le Durée : 3 ans Contact : luc.brun@ensicaen.fr Date limite de publication : 2025-06-30 Contexte : Les laboratoires GREYC (Informatique) et CARMeN (chimie théorique) collaborent dans le cadre d’une bourse de thèse CNRS entre les instituts de chimie et d’informatique, L’accueil principal du doctorant pourra être discuté avec ce dernier la thèse se déroulant de toute façon dans le cadre d’une collaboration étroite entre les deux laboratoires. La bourse de thèse permet de financer outre le salaire du doctorant, un certain nombre de frais annexes tels que des déplacements. Sujet : La prédiction de liaisons non covalentes dans une molécule est un processus complexe qui nécessite de calculer l’évolution de la position de chacun des atomes des celle-ci au cours du temps. Ce processus peut être effectué à l’aide de logiciel de chimie quantique très coûteux en calcul, ce qui limite ce type de prédiction à des jeux réduits de petites molécules. L’objet de la thèse est de concevoir des méthodes de prédiction plus efficace en remplaçant l’étape de simulation par une étape d’apprentissage à l’aide d’apprentissage profond sur graphes. Profil du candidat : Diplômé d’un diplôme d’ingénieur ou d’un master en informatique, l’étudiant doit être à l’aise en programmation python et dans la lecture d’articles avec un contenu scientifique. Il devra également être autonome et approfondir de lui-même les pistes de recherche qui lui seront indiquées. On s’attend à ce qu’il soit force de proposition au terme de la première année de thèse. Formation et compétences requises : Diplômé d’un diplôme d’ingénieur ou de master en Informatique avec une spécialisation en apprentissage profond. Des compétences en graphes et des bases en chimie seraient appréciées sans être des prérequis. Adresse d’emploi : GREYC 6 boulevard du Maréchal Juin, 14050 Caen ou Laboratoire COBRA Bâtiment IRCOF – 1, rue Tesnière 76821 Mont-Saint-Aignan cedex À discuter avec l’étudiant Document attaché : 202504031311_these_rouen.pdf Offre en lien avec l’Action/le Réseau : DatAstro/Doctorants Laboratoire/Entreprise : CRIStAL / Univ. Lille Durée : 36 months Contact : jenny.sorce@univ-lille.fr Date limite de publication : 2025-06-30 Contexte : This PhD thesis proposal focuses on improving galaxy cluster mass estimation to enhance cosmological parameter inference, in order to address critical challenges such as the S8 cosmological parameter discrepancy. By leveraging multi-wavelength observations, advanced statistical techniques including Bayesian inference and machine learning to solve this inverse problem, the project aims to refine relations between the cluster mass and their observable properties, reduce data dimensionality, and efficiently process large datasets. Anticipated outcomes include innovative Bayesian hierarchical models, optimized data reduction algorithms, and a robust inference pipeline for generating a high-fidelity galaxy cluster mass catalog towards testing cosmological models. Sujet : The standard cosmological model successfully describes the Universe’s large-scale structure and evolution. Observational evidence, including the cosmic microwave background (CMB) and the hierarchical distribution of galaxies in the cosmic web, provides strong support for this model. These data suggest that dark matter and dark energy dominate the Universe, together constituting approximately 95% of its total content. Despite its success, this model faces challenges. For instance, the value derived for the S8 parameter, which characterizes the matter distribution on certain scales, differs by three standard deviations when using galaxy cluster counts instead of CMB observations. Resolving this tension is critical to determine whether new physics theories are required, or systematic errors in data analysis pipelines need to be accounted for. Galaxy clusters are a key tool to address these challenges. As the largest gravitationally bound structures in the Universe, their number and masses are closely related to the underlying cosmology. Accurately estimating their masses and number across diverse environments and redshifts is essential to test the standard model and refine our understanding of the Universe. This PhD project focuses on developing Bayesian hierarchical models to improve the estimation of galaxy cluster masses. By leveraging multi-wavelength observations, advanced data reduction, and machine learning techniques, this research will provide more precise mass estimates, refine scaling relations, and facilitate the inference of cosmological parameters from large datasets. Profil du candidat : Formation et compétences requises : Adresse d’emploi : UMR CRIStAL Université de Lille – Campus scientifique Bâtiment ESPRIT Avenue Henri Poincaré 59655 Villeneuve d’Ascq Document attaché : 202503181504_main.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIFAT (Laboratoire d’Informatique Fondamentale et Durée : 3 ans Contact : frederic.rayar@univ-tours.fr Date limite de publication : 2025-06-30 Contexte : Cette offre de thèse s’inscrit dans le cadre du projet « Fact Checking » mené depuis 2021 entre le laboratoire LIFAT et l’équipe PRIM (chercheurs en Science de l’Information et de la Communication). Le fact checking, ou vérification de fait, consiste à vérifier la véracité des faits présentés dans les médias par des personnalités publiques ou autres organisations. De nombreux travaux de recherches ont été et sont en train d’être menéspour répondre à l’enjeu majeur de la désinformation, notamment depuis l’avènement des technologies de deep-fake et d’IA génératives. Ce phénomène de désinformation massive est observable dans plusieurs domaines : on peut citer en particulier la sphère politique (« political discourse »), le changement climatique ou encore le domaine de santé (« COVID-19 misinformation »). Cette thèse vise à la conception et à l’évaluation de nouvelles techniques de détection multimodale (vidéo, image, audio, texte) dans du contenu multimédia (vidéo, audio). Sujet : Cette thèse vise à la conception et à l’évaluation de nouvelles techniques de détection multimodale (vidéo, image, audio, texte) dans du contenu multimédia (vidéo, audio). Pour ce faire, la thèse explorera l’utilisation de concepts d’IA à différents niveaux « Audio-visual Active Speaker identification » (ASD), « Multimodal Named Entity recognition » (MNER), « Retrieval-Augmented Generation » (RAG), etc., et l’exploitation d’une base de données de fait vérifiés existante (base de données issue de travaux précédents ou benchmark existants). Par ailleurs, compte-tenu de l’impact sociétal de ces travaux, un fort accent sera mis sur l’explicabilité des algorithmes multimodaux proposés, en agrégant différentes solutions : récupération d’information tierces via la recherche d’information, génération textuelle, visualisation d’élément saillant dans les images/vidéos, isolation des séquences d’intérêt dans les pistes audio/vidéos, etc. Enfin, durant la réalisation de ces travaux de recherche, il s’agira aussi de tenir compte des verrous théoriques et empiriques de l’acception des citoyens d’un tel outil via les notions d’interactions avec les outils développés, et de visualisation interactive et d’ergonomie. Ces aspects seront abordés via une collaboration avec des chercheurs en sciences de l’information et de la communication ou des journalistes et fact-checkers. Profil du candidat : M2 en informatique ou diplôme d’ingénieur Bonnes connaissances en Machine Learning et Intelligence Artificielle Bonnes connaissances en programmation indispensables Des compétences en développement web sont souhaitables Bonnes capacités de communication et de rédaction, en particulier en anglais Formation et compétences requises : Adresse d’emploi : Laboratoire d’Informatique LIFAT Équipe RFAI (Reconnaissance des Formes et Analyse d’Images) 64 avenue Jean Portalis – 37200 – Tours Document attaché : 202502101508_2025_PhD_lifat_v3.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : GREYC UMR 6072 Durée : 3 ans Contact : bruno.cremilleux@unicaen.fr Date limite de publication : 2025-06-30 Contexte : Cf. document attaché Sujet : Cf. document attaché Profil du candidat : Cf. document attaché Formation et compétences requises : Cf. document attaché Adresse d’emploi : Université de Caen Normandie (Caen, Normandy, France: GREYC, Campus Côte de Nacre) : Document attaché : 202504291608_TheseXAIforGraphDataAugmentation_EpitaGREYC.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : GREYC UMR 6072 Durée : 36 mois Contact : abdelkader.ouali@unicaen.fr Date limite de publication : 2025-06-30 Contexte : Cf. document attaché. See attached document. Sujet : Cf. document attaché. See attached document. Profil du candidat : Cf. document attaché. See attached document. Formation et compétences requises : Cf. document attaché. See attached document. Adresse d’emploi : Université de Caen Normandie (Caen, Normandy, France: GREYC, Campus Côte de Nacre). Document attaché : 202505042125_FIDD-PhD-25.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IRISA Durée : 36 months Contact : tristan.allard@irisa.fr Date limite de publication : 2025-06-30 Contexte : This PhD offer is funded by the PEPR Cybersecurity IPoP project (https://files.inria.fr/ipop/) and proposed by the Security and Privacy team (SPICY, https://www-spicy.irisa.fr/) from the IRISA institute (https://www.irisa.fr/en) in Rennes, France. The work will be supervised jointly by Tristan Allard (PhD, HDR, https://people.irisa.fr/Tristan.Allard/) associate professor at the University of Rennes, expert in privacy in data intensive systems, and Barbara FILA (PhD, HDR, http://people.irisa.fr/Barbara.Fila/), associate professor at INSA Rennes, expert in formal methods for risk assessment. The successful candidate will be working at IRISA — the largest French research laboratory in the field of computer science and information technologies (more than 850 people). IRISA provides an exciting environment where French and international researchers perform cutting edge scientific activities in all domains of computer science. Rennes is located in the West part of France in the beautiful region of Brittany. From Rennes, you can reach the sea side in about 45~minutes by car and Paris center in about 90~minutes by train. Rennes is a nice and vibrant student-friendly city. It is often ranked as one of the best student cities in France. Rennes is known and appreciated for its academic excellence, especially in the field of cybersecurity, its professional landmark, the quality of its student life, the affordability of its housing offer, its rich cultural life, and much more. Sujet : Context and goal Health data, social networks, electricity consumption… Vast quantities of personal data are collected today by private companies or public organizations. Various legal, monetary, or visibility incentives push data holders to envision sharing versions of the collected datasets that provide both statistical utility and privacy guarantees. Indeed, sharing data at large, e.g., as open data, without jeopardizing privacy, is expected to bring strong benefits (strengthening, e.g., scientific studies, innovation, public policies). Synthetic data generation is a promising approach. First, synthetic data generation algorithms aim at generating datasets that are as close as possible to the original datasets. Either synthetically generated data or the generative models trained over the original data could be shared for supporting elaborate data analysis. Second, substantial progress has been made during the last decade about the privacy guarantees of synthetic data generation algorithms. For example, there exist today synthetic data generation algorithms that satisfy variants of differential privacy, one of the most prominent family of privacy models [2]. However security is a constant race between the attackers and the defenders. A large number of attacks exists and keeps growing [5]. As a result, because of the complex environment in which synthetic data generation takes place (e.g., utility needs, diversity of information sources, diversity of data generation algorithms), analyzing the risks remains hazardous even when strong privacy-preserving techniques are used. The main goal of this PhD thesis is to design a formal method based approach allowing data holders to analyze the risks related to their synthetic data publication practices. The main tasks of the PhD student will be to: – Study the state-of-the-art about attacks on synthetic data generation algorithms (e.g., membership inference attacks [4, 6]) and about relevant formal methods (e.g., attack tree based risk analysis models [3]). We will focus on tabular data and time series. – Model the full synthetic data generation environment. Most especially, this includes capturing the attackers’ capabilities (e.g., goals [5], background knowledge, computational resources, sequences of steps), the relationships between attackers, the sources of auxiliary information, and the data sharing practices. – Design efficient algorithms for finding the attacks that illustrate privacy risks, implement them, and evaluate their performance. In addition to the core tasks of the project, the successful candidate will also contribute to the organisation of competitions where the privacy guarantees of synthetic data generation algorithms are challenged [1] (see, e.g., the Snake1 challenge (https://snake-challenge.github.io)). References [1] Tristan Allard, Louis Béziaud, and Sébastien Gambs. Snake challenge: Sanitization algorithms under attack. Proceedings of the 32nd ACM International Conference on Information and Knowledge Management (CIKM ’23), 2023. [2] Damien Desfontaines and Balázs Pejó. Sok: Differential privacies. Proceedings on Privacy Enhancing Technologies, 2020(2):288–313, 2020. [3] Barbara Kordy (Fila), Ludovic Piètre-Cambacédès, and Patrick Schweitzer. Dag-based attack and defense modeling: Don’t miss the forest for the attack trees. Comput. Sci. Rev., 13-14:1–38, 2014. [4] Hongsheng Hu, Zoran A. Salcic, Lichao Sun, Gillian Dobbie, P. Yu, and Xuyun Zhang. Membership inference attacks on machine learning: A survey. ACM Computing Surveys (CSUR), 54:1 – 37, 2021. [5] Ahmed Salem, Giovanni Cherubin, David Evans, Boris Köpf, Andrew Paverd, Anshuman Suri, Shruti Tople, and Santiago Zanella-Béguelin. Sok: Let the privacy games begin! a unified treatment of data inference privacy in machine learning. In Proceedings of the 2023 IEEE Symposium on Security and Privacy (S&P ’23), pages 327–345, 2023. [6] Antonin Voyez, Tristan Allard, Gildas Avoine, Pierre Cauchois, Élisa Fromont, and Matthieu Simonin. Membership inference attacks on aggregated time series with linear programming. In Proceedings of the 19th International Conference on Security and Cryptography (SECRYPT ’22), 2022. Profil du candidat : – The candidate must have obtained, or be about to obtain, a master degree in computer science or in a related field. – The candidate must be curious, autonomous, and rigorous. – The candidate must be able to communicate in English (oral and written). The knowledge of the French language is not required. – The candidate must have a strong interest in cybersecurity. – Skills in machine learning and/or formal methods will be appreciated. Formation et compétences requises : Adresse d’emploi : IRISA Rennes Campus de Beaulieu, 263 avenue du Général Leclerc 35042 RENNES cedex Document attaché : 202501201621_PhD_thesis_IRISA_France.pdf Jul 31 Thu 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Centre de Recherche en Informatique, Université Pa Durée : 3 ans Contact : Manuele.Kirsch-Pinheiro@univ-paris1.fr Date limite de publication : 2025-07-31 Contexte : La généralisation du télétravail a profondément transformé les modes de collaboration en entreprise, entraînant une multiplication des plateformes numériques (Teams, Zoom, Jira, etc.) et une dispersion des informations. Cette évolution s’accompagne de nouveaux défis : perte de cohésion, isolement, difficulté à suivre l’état d’avancement des projets, et augmentation du risque de désengagement ou de détresse psychologique chez les collaborateurs. Sujet : La thèse se positionne au carrefour de deux domaines de recherche : le travail coopératif assisté par ordinateur (TCAO ou CSCW en anglais), avec sa notion de conscience de groupe (group awareness), et l’Intelligence Artificielle, et notamment ses techniques de Machine Learning. La thèse vise à : • Proposer des modèles d’IA et de Machine Learning pour extraire, à partir des traces d’activités multi-plateformes, les informations pertinentes à la conscience de groupe (group awareness) ; • Détecter précocement les signes de désengagement ou de détresse chez les membres d’une équipe ; • Concevoir des mécanismes personnalisés de diffusion d’information et d’alerte, respectant la vie privée (RGPD, AI Act), pour renforcer la cohésion et le bien-être des équipes ; • Explorer des approches de Federated Learning et d’apprentissage incrémental pour l’adaptation des modèles à chaque contexte collaboratif. Profil du candidat : • Master en informatique avec spécialisation data science, IA, ou domaine connexe. • Intérêt pour les problématiques humaines et organisationnelles du travail collaboratif. • Esprit d’initiative, autonomie, et capacité à travailler en équipe interdisciplinaire. Formation et compétences requises : • Solide maîtrise en Machine Learning, traitement de données, et systèmes distribués. • Des connaissances ou expériences précédentes dans le domaine du CSCW seraient appréciées. • Bonnes compétences en communication scientifique (français et anglais). Adresse d’emploi : Centre de Recherche en Informatique, Université Paris 1 Panthéon-Sorbonne, Centre Pierre Mendes-France (Paris 13ème) Document attaché : 202506301529_PropositionSujetThese-annonce.pdf Aug 31 Sun 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : CReSTIC / Institut Godinot / AQUILAB Durée : 36 mois Contact : Arnaud.BEDDOK@reims.unicancer.fr Date limite de publication : 2025-08-31 Contexte : Sujet : Cf. document pdf. Profil du candidat : Formation et compétences requises : Adresse d’emploi : CReSTIC Université de Reims Champagne Ardenne Document attaché : 202505121850_Appel_candidature_20250512.pdf
|
Offres de stages
May 31 Sat 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Centre d’Epidémiologie et de Santé Publique des A Durée : 4 à 6 mois Contact : muriel.visani@univ-lr.fr Date limite de publication : 2025-05-31 Contexte : /! À noter que ce sujet de stage s’adresse préférentiellement à des étudiants de M2 mais, en fonction de leur profil et de leur expérience, des étudiants de M1 pourraient être acceptés. /! Parmi les pré-requis explicités dans le fichier ci-joint, nous attirons l’attention des potentiels candidats sur les contraintes en termes de nationalité liées à ce poste. Sujet : Voir le fichier ci-joint. Profil du candidat : Nous recherchons un(e) étudiant(e) de Master 2 ou de Master 1, de nationalité Française, avec : – Motivation dans la recherche et l’innovation – Bonnes compétences en programmation (en particulier avec Python) – Bonnes compétences en IA et en apprentissage automatique – Une première expérience du deep learning serait un atout – Très bon niveau d’anglais (parlé et écrit) – Connaissances en traitement et analyse d’images Tous les demandeurs devront se soumettre à une enquête d’habilitation de sécurité avant de pouvoir accéder au site du CESPA. Formation et compétences requises : Adresse d’emploi : Centre d’Epidémiologie et de Santé Publique des Armées (CESPA), Marseille. Document attaché : 202501240639_StageMaster-CESPA.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Cirad, Montpellier Durée : 4 à 6 mois Contact : romain.fernandez@cirad.fr Date limite de publication : 2025-05-31 Contexte : Les rizières jouent un rôle central dans la sécurité alimentaire mondiale, et un rôle important dans le changement climatique d’origine anthropique en émettant chaque année 50 mégatonnes de méthane. Le projet interdisciplinaire ARIZE vise à relever le double défi de la transition agroécologique et de la sécurité alimentaire en développant des outils innovants pour l’exploration morpho-anatomique du riz en 3D afin de sélectionner des variétés de riz adaptées aux cultures en sol sec. Dans ce cadre, nous explorons l’architecture interne des plantes de riz en 3D via des images inédites par micro-tomographie aux rayons X à une résolution de 10 μm. Chaque image volumétrique, de l’ordre de 1 To, permet de révéler le réseau 3D des aérenchymes, ces “canaux” internes qui transportent l’oxygène. Automatiser l’analyse de ces structures en 3D serait une première mondiale et constitue le cœur de ce stage. Sujet : Concevoir un pipeline complet d’analyse 3D pour la segmentation anatomique et l’estimation de caractéristiques complexes en 3D. Dans ce but, le stagiaire aura la responsabilité de réaliser des expérimentations avec des outils de l’état de l’art (modèles dédiés “plante” et modèles-fondation généralistes), et de concevoir une solution technique open-source qui sera mise à disposition dans un démonstrateur open-source via un plugin Python pour le logiciel Napari. Le stagiaire travaillera en lien étroit avec le deuxième stagiaire X-atlas 3D, dédié à la reconstruction architecturale en 3D. Une forte collaboration est prévue pour combiner les résultats dans une solution intégrée. Profil du candidat : Étudiant·e en Master 2 ou école d’ingénieur avec spécialisation en informatique, analyse d’images, ou modélisation mathématique. Le langage de programmation utilisé sera Python, en utilisant des outils de développement communautaire et de maintien logiciel (Github, Intégration Continue), et des librairies standards de deep learning (Pytorch/Tensorflow). Formation et compétences requises : Expérience en traitement d’images 3D, et/ou modélisation géométrique appréciée. Intérêt pour le développement d’outils open-source et la collaboration interdisciplinaire. Capacité à travailler en équipe dans un environnement mêlant informatique, biologie et agroécologie. Adresse d’emploi : La rémunération selon barème légal des stages sera de 600€ mensuel, avec accès à la restauration collective le midi. Le stage aura lieu au Cirad de Montpellier, 389 Av. Agropolis, 34980 Montferrier-sur-Lez. Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Cirad, Montpellier Durée : 6 mois Contact : romain.fernandez@cirad.fr Date limite de publication : 2025-05-31 Contexte : Les rizières jouent un rôle central dans la sécurité alimentaire mondiale, et un rôle important dans le changement climatique d’origine anthropique en émettant chaque année 50 mégatonnes de méthane. Le projet interdisciplinaire ARIZE vise à relever le double défi de la transition agroécologique et de la sécurité alimentaire en développant des outils innovants pour l’exploration morpho-anatomique du riz en 3D afin de sélectionner des variétés de riz adaptées aux cultures en sol sec. Dans ce cadre, nous explorons l’architecture interne des plantes de riz en 3D via des images inédites par micro-tomographie aux rayons X à une résolution de 10 µm. Chaque image volumétrique, de l’ordre de 1 To, permet de révéler le réseau 3D des aérenchymes, ces “canaux” internes qui transportent l’oxygène. Automatiser l’analyse de ces structures en 3D serait une première mondiale et constitue le cœur de ce stage. Sujet : Concevoir un pipeline complet d’analyse 3D pour la segmentation anatomique et l’estimation de caractéristiques complexes en 3D. Dans ce but, le stagiaire aura la responsabilité de réaliser des expérimentations avec des outils de l’état de l’art (modèles dédiés “plante” et modèles-fondation généralistes), et de concevoir une solution technique open-source qui sera mise à disposition dans un démonstrateur open-source via un plugin Python pour le logiciel Napari. Le stagiaire travaillera en lien étroit avec le deuxième stagiaire X-atlas 3D, dédié à la reconstruction architecturale en 3D. Une forte collaboration est prévue pour combiner les résultats dans une solution intégrée. Profil du candidat : Étudiant·e en Master 2 ou école d’ingénieur avec spécialisation en informatique, analyse d’images, ou modélisation mathématique. Le langage de programmation utilisé sera Python, en utilisant des outils de développement communautaire et de maintien logiciel (Github, Intégration Continue), et des librairies standards de deep learning (Pytorch/Tensorflow). Formation et compétences requises : Expérience en traitement d’images 3D, et/ou modélisation géométrique appréciée. Intérêt pour le développement d’outils open-source et la collaboration interdisciplinaire. Capacité à travailler en équipe dans un environnement mêlant informatique, biologie et agroécologie. Adresse d’emploi : La rémunération selon barème légal des stages sera de 600€ mensuel, avec accès à la restauration collective le midi. Le stage aura lieu au Cirad de Montpellier, 389 Av. Agropolis, 34980 Montferrier-sur-Lez. Document attaché : 202501271049_Offre de stage M2 – Deep aerenchimas.pdf Jun 30 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IMT Atlantique & ENSTA Durée : 6 mois Contact : dorian.cazau@ensta.fr Date limite de publication : 2025-06-30 Contexte : Sujet : IA Non‐Supervisée pour le Suivi de la Biodiversité Marine par Acoustique Passive Sous Marine (IANSPAM) Profil du candidat : Formation et compétences requises : Adresse d’emploi : Brest ‐ IMT Atlantique / ENSTA Document attaché : 202502101141_Stage IANSPAM.pdf Oct 31 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : CRISTAL UMR CNRS 9189 Durée : 6 mois Contact : hayfa.zgaya-biau@univ-lille.fr Date limite de publication : 2025-10-31 Contexte : Le projet IARISQ (projet ANR 2025) vise à développer des modèles d’intelligence artificielle avancés pour prédire la toxicité des particules atmosphériques en fonction de leur composition physico-chimique et de leurs variations spatio-temporelles. Le stage s’inscrit dans une dynamique interdisciplinaire mêlant IA explicable (XAI), gestion de l’incertitude, toxicologie environnementale et données de qualité de l’air. Suite possible : thèse (2026–2029) Le stage pourra évoluer naturellement vers une thèse de doctorat de 3 ans au sein du laboratoire CRISTAL, dans la continuité des travaux réalisés. Le/la doctorant(e) travaillera en lien étroit avec les partenaires ATMO-HDF et LGCgE, sur la modélisation avancée des risques toxiques et l’intégration des modèles IA dans des outils opérationnels de surveillance. Sujet : • Participer à la construction et préparation de bases de données (mesures ATMO-HDF, composition physico-chimique, tests de toxicité). • Déployer des modèles d’apprentissage automatique supervisés et non supervisés pour identifier les caractéristiques les plus influentes sur la toxicité. • Expérimenter des techniques d’explicabilité (SHAP, LIME) et de réduction de dimension (UMAP, PCA). • Contribuer au design d’une première version de pipeline IA à intégrer dans un futur système d’aide à la décision. Profil du candidat : • M2 en informatique, intelligence artificielle, science des données. • Maîtrise de Python, notamment avec les bibliothèques scikit-learn, pandas, PyTorch ou TensorFlow. • Connaissance des modèles de machine learning, des réseaux de neurones et/ou des approches XAI. • Rigueur, autonomie et appétence pour les projets interdisciplinaires (santé, environnement, IA). Formation et compétences requises : • M2 en informatique, intelligence artificielle, science des données. • Maîtrise de Python, notamment avec les bibliothèques scikit-learn, pandas, PyTorch ou TensorFlow. • Connaissance des modèles de machine learning, des réseaux de neurones et/ou des approches XAI. • Rigueur, autonomie et appétence pour les projets interdisciplinaires (santé, environnement, IA). Adresse d’emploi : Centre de Recherche en Informatique, Signal et Automatique de Lille UMR CNRS 9189 CRIStAL Université de Lille – Campus scientifique Bâtiment ESPRIT Avenue Henri Poincaré 59655 Villeneuve d’Ascq https://www.cristal.univ-lille.fr Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : CRISTAL UMR CNRS 9189 Durée : 6 mois Contact : hayfa.zgaya-biau@univ-lille.fr Date limite de publication : 2025-10-31 Contexte : Le projet IARISQ (projet ANR 2025) vise à développer des modèles d’intelligence artificielle avancés pour prédire la toxicité des particules atmosphériques en fonction de leur composition physico-chimique et de leurs variations spatio-temporelles. Le stage s’inscrit dans une dynamique interdisciplinaire mêlant IA explicable (XAI), gestion de l’incertitude, toxicologie environnementale et données de qualité de l’air. Suite possible : thèse (2026–2029) Le stage pourra évoluer naturellement vers une thèse de doctorat de 3 ans au sein du laboratoire CRISTAL, dans la continuité des travaux réalisés. Le/la doctorant(e) travaillera en lien étroit avec les partenaires ATMO-HDF et LGCgE, sur la modélisation avancée des risques toxiques et l’intégration des modèles IA dans des outils opérationnels de surveillance. Sujet : • Participer à la construction et préparation de bases de données (mesures ATMO-HDF, composition physico-chimique, tests de toxicité). • Déployer des modèles d’apprentissage automatique supervisés et non supervisés pour identifier les caractéristiques les plus influentes sur la toxicité. • Expérimenter des techniques d’explicabilité (SHAP, LIME) et de réduction de dimension (UMAP, PCA). • Contribuer au design d’une première version de pipeline IA à intégrer dans un futur système d’aide à la décision. Profil du candidat : • M2 en informatique, intelligence artificielle, science des données. • Maîtrise de Python, notamment avec les bibliothèques scikit-learn, pandas, PyTorch ou TensorFlow. • Connaissance des modèles de machine learning, des réseaux de neurones et/ou des approches XAI. • Rigueur, autonomie et appétence pour les projets interdisciplinaires (santé, environnement, IA). Formation et compétences requises : • M2 en informatique, intelligence artificielle, science des données. • Maîtrise de Python, notamment avec les bibliothèques scikit-learn, pandas, PyTorch ou TensorFlow. • Connaissance des modèles de machine learning, des réseaux de neurones et/ou des approches XAI. • Rigueur, autonomie et appétence pour les projets interdisciplinaires (santé, environnement, IA). Adresse d’emploi : Centre de Recherche en Informatique, Signal et Automatique de Lille UMR CNRS 9189 CRIStAL Université de Lille – Campus scientifique Bâtiment ESPRIT Avenue Henri Poincaré 59655 Villeneuve d’Ascq https://www.cristal.univ-lille.fr Nov 16 Sun 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IRIT (Toulouse) Durée : 5 to 6 months Contact : henrique.goulart@irit.fr Date limite de publication : 2025-11-16 Contexte : Sujet : We are seeking candidates for a 5- to 6-month internship on the analysis and improvement of estimators of low-rank tensor models, with the possibility of a PhD thesis afterwards (a PhD funding is secured). This subject is situated at the interface between mathematics and computer science, having applications in several domains, notably in data science and machine learning. A detailed description can be found at: https://cloud.irit.fr/s/hZnoJgiopaqMkdV Profil du candidat : M2 student strongly motivated by mathematics and its application to statistical inference and machine learning. Prior knowledge on tensor algebra and on random matrix theory are a strong plus. Good communication skills (both oral and written) in English are required, notably for reading, writing and presenting scientific papers. Formation et compétences requises : Adresse d’emploi : IRIT (Institut de Recherche en Informatique de Toulouse), site ENSEEIHT (2 rue Charles Camichel, Toulouse). Nov 21 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Institut d’Astrophysique de Paris Durée : 4 à 6 mois Contact : tchernia@iap.fr Date limite de publication : 2025-11-21 Contexte : La modélisation et la compréhension de l’histoire de l’Univers, depuis le Big Bang jusqu’à aujourd’hui, reposent sur l’évaluation de nos modèles cosmologiques à partir des grands relevés astronomiques (Euclid, DESI…). L’un des objectifs est de simuler la formation des grandes structures afin d’évaluer la robustesse des modèles cosmologiques vis-à-vis des observations. L’Institut d’Astrophysique de Paris (IAP), une Unité Mixte de Recherche (UMR) de Sorbonne Université et du Centre National de la Recherche Scientifique (CNRS), est impliqué dans cette activité. En son sein, l’équipe « Grandes structures et Univers profond » à laquelle le.la stagiaire sera affecté.e a développé le code Simbelmynë, qui permet de : 1. Calculer l’évolution de la répartition de matière noire en résolvant les équations du mouvement de la gravité à l’échelle de l’univers observable (problème à N corps), 2. En déduire une répartition des galaxies dans le ciel, 3. Produire des relevés cosmologiques simulés. Cette chaîne de simulation est appelée à être lancée un très grand nombre de fois pour des paramètres d’entrée variés. C’est pourquoi le respect des contraintes du calcul haute performance (HPC) et la parallélisation des tâches sont des enjeux clés de ce code. Grâce à l’approche sCOLA qui divise la portion d’univers à simuler en morceaux indépendants, il est possible d’adopter une approche hybride entre calculs à mémoire distribuée et à mémoire partagée. Nous souhaitons aujourd’hui le rendre portable sur plusieurs architectures cibles (CPU et GPU). Pour plus de détails sur le contexte scientifique, voici un article de vulgarisation traitant de ce sujet : https://theconversation.com/vers-une-simulation-de-lunivers-sur-un-telephone-portable-137421 Sujet : La.le stagiaire participera au portage de C vers C++ du code Simbelmÿne ainsi qu’au développement de codes de calcul parallèle utilisant des CPU et GPUs. Il/elle se formera au framework Kokkos et l’utilisera afin de produire un code générique compatible avec toutes les architectures cibles. Il/elle mettra ces codes en œuvre à l’aide du cluster de calcul du laboratoire, mettant à disposition CPUs et GPUs. Il/elle travaillera en équipe et versionnera son code à l’aide de Git et produira les tests unitaires et benchmarks garantissant la qualité, la performance et la robustesse de son code. Profil du candidat : Nous recherchons un.e stagiaire de six mois en fin d’études ou césure, en école d’ingénieurs ou master, avec une spécialisation en informatique et si possible en calcul scientifique/HPC. Formation et compétences requises : – Maîtrise du langage de programmation C++, connaissance de python – Savoir adopter une méthodologie de développement collaboratif (Git, tests unitaires…) – Connaître les enjeux de la programmation HPC, notamment la parallélisation des tâches (multithreading, multiprocessing). – Notions de mathématiques appliquées (Transformées de Fourier, Équations aux dérivées partielles…) – Anglais courant (réunions en anglais) – Une formation en physique serait un plus. Adresse d’emploi : 98 bis boulevard Arago, 75014 Paris Document attaché : 202510231604_Fiche de stage HPC Cosmologie.pdf Nov 26 Wed 2025 Offre en lien avec l’Action/le Réseau : SaD-2HN/– — – Laboratoire/Entreprise : Centre de Recherches Historiques (UMR 8558 : EHESS Durée : 6 mois Contact : bertrand.dumenieu@ehess.fr Date limite de publication : 2025-11-26 Contexte : Le musée Carnavalet – Histoire de Paris et les bibliothèques spécialisées de la ville de Paris conservent d’importantes collections d’éphémères. Il s’agit de documents de la vie quotidienne produits par des commerces, des associations ou des particuliers, qui deviennent très rapidement obsolètes : faire-parts, menus, cartes postales, affiches, prospectus, buvards publicitaires, dépliants touristiques, catalogues de vente, programmes de théâtre, images pieuses, sous-bocks, papiers de fruits, etc. La figure 1 présente un exemple d’affiches et de prospectus créés entre 1873 et 1888 et conservés au musée Carnavalet – Histoire de Paris. Chaque éphémère est indexé par des métadonnées récoltées par le musée, décrivant les acteurs de sa production (artiste dessinateur, imprimeur) et les techniques et matériaux mobilisés. Ces informations permettent quelques analyses explicatives sur la chaîne de création, d’impression et de diffusion de ces éphémères, mais qui restent limitées faute de connaissances suffisantes sur les réseaux professionnels des commerçants, artistes et artisans qui y contribuent. Pour peu qu’ils exercent à Paris, ces professionnels ont de bonnes chances d’être recensés dans les annuaires commerciaux de la ville (voir figure 2). Ancêtres des « Pages Jaunes », ces ouvrages compilent, classent, datent et localisent les commerçants, artisans et notables parisiens au sein de longues listes nominatives. Celles de la majorité des annuaires édités entre 1797 et 1914 ont été extraites et transformées en une base de données géographique sérielle durant un précédent projet de recherche. Il est désormais possible d’exploiter les 22 millions d’entrées contenues de cette base pour tenter d’identifier les acteurs de la production d’éphémères et les lier aux collections du musée Carnavalet. Sujet : Le premier objectif de ce stage est donc de croiser les métadonnées des éphémères avec la base des annuaires du commerce parisien au XIXe siècle pour y retrouver les commerçants et artisans ayant concouru à la production des éphémères du musée. Le second objectif consistera à proposer une méthodologie d’analyse de ces métadonnées enrichies pour comprendre comment la création, l’impression et la diffusion des éphémères s’organisait, selon les commanditaires, les imprimeurs ou les types de supports. On pourra, par exemple, étudier l’éventuelle spécialisation des artistes, des imprimeurs, des rues ou des quartiers dans certains types de production ou bien les critères de choix des artistes ou des imprimeurs par les commanditaires : proximité spatiale, recommandation professionnelle, renommée, etc. La première difficulté de ce travail réside dans la création et le peuplement du graphe de connaissances initial à partir des deux sources de données hétérogènes, incomplètes, bruitées, spatiales et temporelles que sont la base des annuaires et les métadonnées des éphémères. Il s’agira donc de proposer une ontologie, guidée par les hypothèses d’analyse des historiens de l’art concernant les réseaux professionnels potentiels des commerçants, artistes et imprimeurs impliqués dans la création des éphémères. Celle-ci devra ensuite être peuplée à partir des données disponibles, ce qui nécessitera un travail de désambiguïsation des commerçants, artistes et imprimeurs. La seconde difficulté sera de proposer une méthodologie d’analyse spatio-temporelle permettant de comprendre le mode de constitution des réseaux professionnels à l’œuvre et leurs dynamiques au cours de la période étudiée. Profil du candidat : Master 2 ou équivalent en humanités numériques, sciences de l’information géographique ou informatique. Le ou la candidat.e doit être un.e étudiant.e inscrit.e dans une université francilienne. Formation et compétences requises : – Analyse de données : connaissances pratiques et théoriques en analyse spatiale. – Web de données : expérience en manipulation de graphes de connaissances, connaissance du liage de données, notions de conception d’ontologies. – Sciences de l’information géographique : maîtrise opérationnelle de QGIS, connaissance de PostGIS, notions en scripting Python pour les SIG. – Un goût pour l’histoire urbaine ou l’histoire de l’art est un atout. Adresse d’emploi : Centre de recherches historiques (UMR 8558 EHESS – CNRS), 54 boulevard Raspail, 75006 Paris Document attaché : 202510211306_StageEphemeres&Annuaires.pdf Dec 2 Tue 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire des 2 Infinis – Toulouse Durée : Flexible Contact : catherine.biscarat@l2it.in2p3.fr Date limite de publication : 2025-12-02 Contexte : Le Laboratoire des 2 Infinis – Toulouse (L2IT) est une unité mixte de recherche (UMR) du CNRS et de l’Université de Toulouse, jeune et dynamique, née en janvier 2020. Les objets d’étude des chercheurs et des ingénieurs du L2IT sont les deux infinis – l’infiniment petit et l’infiniment grand – et les relations entre les phénomènes qui régissent chacun d’entre eux. Le laboratoire est organisé en quatre équipes “Calcul, Analyse et Données”, “Physique Nucléaire”, “Physique des particules” et “Ondes Gravitationnelles”. Nous poursuivons nos recherches au sein de collaborations internationales. Nous sommes actuellement 32 membres, dont 15 permanents qui mettent en place les équipes de recherche. La spécificité du L2IT est son accent sur les méthodes numériques de pointe (IA, calcul HPC, ingénierie logicielle, expertise CUDA) qui accompagnent les travaux d’analyse de données, de modélisation, simulation, et de développements théoriques. Le L2IT est implanté sur un campus dynamique qui regroupe facultés, écoles et laboratoires. Sujet : Trois sujets de stage sont actuellement proposés. Ils sont à l’intersection entre l’IA et nos domaines de recherche en physique fondamentale (physique des particules, cosmologie, ondes gravitationnelles). Pour les détails des sujets, veuillez vous référer à notre site internet : https://www.l2it.in2p3.fr/en/emplois-et-stages/internships-2026/ Profil du candidat : Formation et compétences requises : Adresse d’emploi : Laboratoire des 2 Infinis – Toulouse, Maison de la Recherche et de la Valorisation, 75 cours des Sciences, 31400 Toulouse, France Dec 10 Wed 2025 Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : Institut de Science des Données de Montpellier / C Durée : 5-6 mois Contact : gino.frazzoli@umontpellier.fr Date limite de publication : 2025-12-10 Contexte : Le sommeil, bien que d’apparence triviale, constitue un état biologique complexe, difficile à quantifier sans recourir à une approche multimodale intégrant notamment l’enregistrement de l’activité cérébrale (EEG). Cette contrainte technologique rend l’étude du sommeil exigeante en conditions naturelles. Comprendre comment les animaux dorment dans leur environnement, en particulier dans un cadre social, représente ainsi un défi majeur. Chez les espèces grégaires comme le babouin, le sommeil ne se résume pas à un phénomène individuel : il s’organise dans un contexte collectif, influencé par les interactions sociales, la hiérarchie et la vigilance partagée. Le projet ERC COSLEEP (dirigé par Meg Crofoot, Max Planck Institute of Animal Behavior) s’attache à explorer cette dimension sociale du sommeil en conditions écologiques réelles, grâce à des suivis simultanés du comportement, de la position et de l’activité physiologique d’individus vivant à l’état sauvage. Le stage proposé s’inscrit dans cette collaboration entre le Centre d’Écologie Fonctionnelle et Évolutive (CEFE), l’Institut de Science des Données et le Max Planck Institute, et portera sur l’analyse de données de sommeil (activité cérébrale, musculaire, oculaire, accéléromètre et vidéo) afin de caractériser la structure et la qualité du sommeil dans un contexte social et écologique réel, et de développer un modèle prédictif fiable basé sur les signaux accélérométriques. Sujet : Le stage aura pour objectif de contribuer à la mise au point d’outils d’analyse automatisée du sommeil chez le babouin à partir de séries temporelles multimodales. Dans un premier temps, le ou la stagiaire évaluera la cohérence du scorage manuel du sommeil réalisé par plusieurs spécialistes à partir d’enregistrements physiologiques (EEG, EMG, EOG, accéléromètre, vidéo), afin de quantifier le niveau d’accord inter-experts et d’établir une base de données de référence. Dans un second temps, il s’agira de tester et d’adapter des modèles d’apprentissage automatique existants (tels que Somnotate ou USleep) pour obtenir un algorithme de scorage automatique capable de s’ajuster aux caractéristiques propres aux signaux enregistrés chez le babouin. Enfin, le stage visera à développer un modèle prédictif du sommeil à partir des signaux d’accéléromètre seuls, en s’appuyant sur les labels dérivés de l’activité cérébrale. Ce modèle permettra à terme d’estimer les phases et sous-états du sommeil à partir de capteurs portés sur collier, ouvrant la voie à une analyse non invasive du sommeil en milieu naturel. Profil du candidat : Le ou la candidat(e) devra posséder une formation en analyse de données expérimentales, data science, ou domaine connexe avec une appétence pour les neurosciences, sciences cognitives, bio-informatique, ou l’écophysiologie. Une bonne familiarité avec le traitement de signaux temporels, des compétences en programmation (Python, Matlab ou R) et des compétences en méthodes d’apprentissage automatique (réseaux de neurones, classification supervisée et modèles de deep learning) seraient un atout majeur. Le ou la stagiaire devra faire preuve de rigueur, d’autonomie et de curiosité scientifique, ainsi que d’un goût marqué pour l’analyse de données et le travail interdisciplinaire, à l’interface entre neurosciences, écologie comportementale et science des données. Une aisance en anglais scientifique (lecture et échanges techniques) sera également souhaitée. Formation et compétences requises : • Maîtrise de Python (NumPy, Pandas, Scikit-learn, PyTorch). Des notions en Matlab sont appréciées. • Connaissances en statistiques, apprentissage automatique et deep learning. • Intérêt pour les méthodes utilisées dans les modèles de scorage automatique du sommeil : o USleep : réseau profond combinant CNN inspiré de U-net pour la classification EEG/EMG. https://www.nature.com/articles/s41746-021-00440-5 o Somnotate : approche probabiliste (HMM + LDA) intégrant la dynamique temporelle du sommeil. https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1011793 • Intérêt à développer des compétences en analyse de signaux physiologiques (EEG, EMG, EOG, accélérométrie). • Notions en validation de modèles et évaluation inter-experts (Kappa, ICC, …). • Rigueur, autonomie, et intérêt pour les approches interdisciplinaires (neurosciences, écologie, data science). • Bon niveau d’anglais scientifique (lecture et communication). Adresse d’emploi : Case courrier, 13004 Pl. Eugène Bataillon Bât. 4, 34095 Montpellier Cedex 5 Document attaché : 202511030916_Analyse_donnees_physiologiques_babouins_CEFE_ISDM_Montpellier.pdf Dec 15 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : BRGM Durée : 6 mois Contact : c.gracianne@brgm.fr Date limite de publication : 2025-12-15 Contexte : Rejoindre le Bureau de Recherches Géologiques et Minières (BRGM), c’est intégrer l’établissement public français de référence dans les sciences de la Terre, qui rassemble 1000 experts passionnés dans 29 implantations en France métropolitaine et en Outre-mer. Le BRGM œuvre à la connaissance du sous-sol pour répondre aux grands défis environnementaux, à travers des projets scientifiques innovants et à fort enjeu sociétal. Dans le cadre d’un programme de recherche dédié à l’aléa sismique à Mayotte, l’objectif est de détecter et cartographier les interfaces géologiques responsables de l’effet de site, phénomène amplifiant localement les ondes sismiques. Après une phase exploratoire sur trois sites pilotes, le projet vise désormais l’automatisation de cette détection à l’échelle de l’île à partir de données électromagnétiques aéroportées (AEM). Sujet : Dans le contexte volcanique et sismique de Mayotte, la présence d’interfaces géologiques marquant des contrastes lithologiques importants (passage de couches dures à meubles) joue un rôle majeur dans l’amplification locale des ondes sismiques. Identifier ces interfaces à grande échelle est essentiel pour la cartographie de l’aléa sismique. Le BRGM a conduit une première phase de détection manuelle sur trois zones test via l’analyse de données AEM (résistivités), complétée par une phase d’automatisation sur l’ensemble de l’île. Les premiers tests sur des modèles supervisés se sont révélés insuffisants, notamment pour prédire les interfaces peu représentées. Une approche alternative consistant à reformuler le problème comme une tâche de segmentation d’image avec un réseau U-Net 2D a permis de mieux exploiter la continuité spatiale des profils AEM. Cependant, la validation de ce modèle a montré des limites,avec une concentration des erreurs dans certaines profondeurs critiques (5-10 m et 20-40 m), rendant les performances trop optimistes. L’objectif du stage est de continuer ces développements en comparant plusieurs méthodologies avancées pour la détection automatisée de ces interfaces géologiques à partir des profils AEM. Les approches testées incluront : – des modèles classiques améliorés (RF, CNN) ; – des approches topologiques (TDA) pour quantifier l’incertitude structurelle ; – des approches guidées par la physique (PINNs) intégrant des contraintes géologiques Le ou la stagiaire devra construire des baselines reproductibles, définir un protocole d’évaluation robuste, comparer les performances des modèles sur l’ensemble de l’île, et surtout évaluer leur capacité à corriger les erreurs récurrentes identifiées sur les zones critiques (Dembeni, Longoni). Une attention particulière sera portée à la localisation des faux positifs/négatifs en profondeur. L’analyse des résultats par cartographie d’erreurs enrichira les réflexions sur la généralisation des approches IA en géosciences. Profil du candidat : Vous êtes autonome, curieux·se et rigoureux·se, avec une capacité à structurer et documenter vos analyses. Vous êtes à l’aise pour explorer, prétraiter, visualiser et interpréter des jeux de données complexes. Vous accordez une attention particulière à la robustesse méthodologique et êtes capable d’évoluer dans un environnement de recherche. Doté·e d’un bon relationnel, vous savez collaborer au sein d’une équipe pluridisciplinaire, en lien étroit avec des spécialistes du domaine (géologues, géophysiciens, data scientists). Vous faites preuve de rigueur scientifique, d’esprit critique et de qualités de communication, à l’écrit comme à l’oral. Formation et compétences requises : Formation de niveau Bac+5 : Master 2 ou dernière année d’école d’ingénieur, avec spécialisation en data science, intelligence artificielle, mathématiques appliquées ou géosciences numériques. Solides bases en apprentissage automatique : régression, classification, réseaux de neurones. Maîtrise du langage Python et des bibliothèques standards en data science : scikit-learn, PyTorch ou TensorFlow, NumPy, Pandas, Matplotlib. Une première expérience avec des architectures convolutives (CNN) ou de segmentation (U-Net) est un atout. Une familiarité avec les problématiques de traitement de données géospatiales ou géophysiques est appréciée. Des connaissances en Topological Data Analysis (TDA) ou en Physics-Informed Neural Networks (PINNs) seraient un plus, mais peuvent être développées durant le stage. Intérêt pour les notions de validation rigoureuse, d’incertitude, de reproductibilité et de qualité des données. Adresse d’emploi : 3 avenue Claude Guillemin, 45000 Orléans Document attaché : 202511060727_Stage_BRGM_2026.pdf Offre en lien avec l’Action/le Réseau : RECAST/– — – Laboratoire/Entreprise : LIMOS, UMR 6158 / Mines Saint-Étienne Durée : 4-6 mois Contact : maxime.lefrancois@emse.fr Date limite de publication : 2025-12-15 Contexte : Physical quantities form an important part of what is represented in scientific data, medical data, industry data, open data, and to some extent, various private data. Whether it is distances, speeds, payloads in transportation, concentrations, masses, moles in chemistry, powers, intensities, voltages in the energy sector, dimensions of furniture, weights, heights of people, durations, and many others in health, there is a need to represent physical quantities, to store them, to process them, and to exchange them between information systems, potentially on a global scale, often on the Internet and via the Web. Sujet : In this internship, we seek to precisely define a way to unambiguously represent physical quantities for the Web of Data. More precisely, we will study the proposals made to encode physical quantities in the standard data model of the Semantic Web, RDF. We will be particularly interested in the use of a data type dedicated to this encoding, probably adapted from the proposal of Lefrançois & Zimmermann (2018) based on the UCUM standard. Having established a rigorous definition of the data type (possibly its variants, if relevant), we will focus on implementing a module that can read/write and process physical quantities and their operations within the RDF data manipulation APIs, for the management, querying and reasoning with knowledge graphs containing physical quantities. The ambition is that, on the one hand, the specification will become in a few years a de facto standard, before perhaps becoming a de jure standard; and that, on the other hand, the implementation will be the reference allowing to compare the compliance levels of other future implementations. This study should lead to the publication of a scientific paper in a high impact scientific journal. References Maxime Lefrançois and Antoine Zimmermann (2018). The Unified Code for Units of Measure in RDF: cdt:ucum and other UCUM Datatypes. In The Semantic Web: ESWC 2018 Satellite Events – ESWC 2018 Satellite Events, Heraklion, Crete, Greece, June 3-7, 2018, Revised Selected Papers, volume 11155 of the Lecture Notes in Computer Science, pp196–201, Springer. Gunther Shadow and Clement J. McDonald. The Unified Code for Units of Measure. Technical report, Regenstrief Institute, Inc, November 21 2017. Profil du candidat : Master 2 students in computer science To apply, please submit by email or in an online file repository your CV, motivation letter, university transcripts, and possibly letters of recommendation. The motivation letter must explain why you are interested in this topic and why you are qualified to work on this topic. Formation et compétences requises : Equivalent of a M2 level in CS, with knowledge of Semantic Web technologies. Also, the candidate must have either very good programming skills in Java, or very good aptitude in formal and abstract thinking. Adresse d’emploi : Mines Saint-Étienne, Institut Henri Fayol, 29 rue Pierre et Dominique Ponchardier, 42100 Saint-Étienne, France Dec 31 Wed 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : CIRAD – UMR TETIS Durée : 6 mois Contact : roberto.interdonato@cirad.fr Date limite de publication : 2025-12-31 Contexte : Food systems are highly interconnected between countries on a global scale, as shown by recent disruptions such as the war in Ukraine and the global pandemic. Food flows are vulnerable to shocks, and these disruptions influence food prices, which in turn affect food consumption patterns. This has had a significant impact on people’s diets, particularly in underdeveloped countries where food security is already fragile. However, scientists and policy-makers lack the data and tools to identify weak points in food flows and build food systems resilient to shocks and disruptions. While considerable progress has been made using Earth Observation data to map crop locations and agricultural productivity (e.g. crop yields), little attention has been paid to the intermediate stages of the workflow – distribution, processing and markets – which are key to understanding and modeling how food moves from production to consumption. Additionally, numerous geospatial datasets, such as OpenStreetMap, are publicly accessible and provide valuable information on land use and land cover. Thanks to advances in artificial intelligence and its application to Earth Observation data, continuously collected satellite images on a global scale, combined with meteorological data, make it possible to monitor food systems in real time. Deep learning models, capable of capturing complex, non-linear relationships, and multimodal algorithms integrating data from a variety of sources, are opening up new perspectives in this field. This internship proposes to exploit multi-temporal and multi-resolution Earth observation data, by combining them with learning models, to monitor food systems, estimate agricultural yields and analyze their links with market prices. This internship focuses on developing machine learning approaches to analyze food flows in Rwanda, in relation to food security situation in the country, by using comprehensive market data and geospatial information. Food flows often deviate from optimal distribution patterns due to infrastructure constraints, market dynamics, and socio-economic factors. For example, a certain product (e.g., potatoes) grown in northern regions may follow suboptimal routes to reach southern markets. By modeling both ideal and actual food flows, we can identify bottlenecks and opportunities to improve food security. Sujet : Missions : The project aims to understand the relationship between food production locations, distribution networks, and market accessibility to inform food security policies. More specifically, the final task is to build a machine learning model able to predict the probability that a certain item is sold in a specific market, based on production and distribution data. The project leverages two primary datasets: · Public Market Dataset: 1.2 million items across 70 markets covering 10 types of food items. · CGIAR/IITA Survey Database: A dataset collected by the IITA (International Institute of Tropical Agriculture) including monthly data from 7,000 vendors across 67 markets in all districts of Rwanda, including food quality assessments and detailed market information. These datasets will be complemented by geospatial data including OpenStreetMap (OSM) infrastructure data, land cover information, and Earth observation data (NDVI and other spectral indices). The main tasks to address during the internship will be: 1. Database Integration and Market Mapping a. Merge the public market dataset with CGIAR/IITA survey data to create a comprehensive market database b. Map which specific food items are sold in which markets 2. Geospatial Data Integration a. Incorporate OpenStreetMap data to understand transportation networks and market accessibility b. Integrate land cover and agricultural production data to identify food production zones c. Process Earth observation data (NDVI, meteorological data) to assess agricultural productivity d. Map the complete food system from production areas to consumption markets 3. Machine Learning Model Development a. Develop predictive models to estimate the probability that specific food items will be available in particular markets b. Compare actual food flows with modeled optimal flows to identify inefficiencies c. Test developed models against baseline methodologies and state-of-the-art approaches 4. Writing of the internship report (in English) to capitalize on the work carried out with a view to a possible scientific publication. If possible, also release associate code and data. Profil du candidat : Skills required : – Programming skills – Interest in data analysis – Scientific rigor – Curiosity and open-mindedness – Analytical, writing and summarizing skills How to apply : Send CV, cover letter and M1 (or 4th year) transcript to : simon.madec@cirad.fr , roberto.interdonato@cirad.fr specifying as e-mail subject “CANDIDATURE STAGE DIGITAG”. Additional Information : – Duration of 6 months, starting February 2025 – Remuneration: CIRAD salary scale, ~600 euros/month – The internship will take place at CIRAD, in the UMR TETIS (Territory, Environment, Remote Sensing and Spatial Information), located at the Maison de la Télédétection in Montpellier. – The internship will be carried out in collaboration with Assistant Professor Claudia Paris and Yue Dou, currently working at the ITC Faculty of Geographic Information Science and Earth Observation, University of Twente, Netherlands. Formation et compétences requises : Skills required : – Programming skills – Interest in data analysis – Scientific rigor – Curiosity and open-mindedness – Analytical, writing and summarizing skills How to apply : Send CV, cover letter and M1 (or 4th year) transcript to : simon.madec@cirad.fr , roberto.interdonato@cirad.fr specifying as e-mail subject “CANDIDATURE STAGE DIGITAG”. Additional Information : – Duration of 6 months, starting February 2025 – Remuneration: CIRAD salary scale, ~600 euros/month – The internship will take place at CIRAD, in the UMR TETIS (Territory, Environment, Remote Sensing and Spatial Information), located at the Maison de la Télédétection in Montpellier. – The internship will be carried out in collaboration with Assistant Professor Claudia Paris and Yue Dou, currently working at the ITC Faculty of Geographic Information Science and Earth Observation, University of Twente, Netherlands. Adresse d’emploi : 500 rue Jean François Breton, 34090, Montpellier Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Sesstim, Aix Marseille Université Durée : 6 Mois Contact : raquel.urena@univ-amu.fr Date limite de publication : 2025-12-31 Contexte : Ce stage s’inscrit dans un projet de recherche à l’interface de l’intelligence artificielle et de la santé, mené au sein d’une équipe multidisciplinaire réunissant informaticiens, médecins, biostatisticiens et chercheurs en santé publique. L’objectif global est de modéliser et d’analyser les parcours de soins longitudinaux des patients à partir de données massives issues des bases médico-administratives (SNDS). Ces travaux permettront d’identifier des profils de patients, des ruptures de parcours et des facteurs de réhospitalisation, afin d’améliorer la compréhension et la personnalisation de la prise en charge. Le stage se déroulera au sein de l’équipe CaLIPSo / SESSTIM (Aix–Marseille Université), sur le IPC à Marseille, dans un environnement stimulant à l’interface de l’IA, de la santé et des sciences sociales. Le stagiaire sera encadré par Raquel URENA, maître de conférences en informatique especialiste en IA et santé, et travaillera en interaction directe avec des chercheurs en IA, des épidémiologistes et des cliniciens de de l’Institut Paoli-Calmettes, sur des données massives réelles à fort impact sociétal. Sujet : Objectifs du stage Le stagiaire participera à la conception et au développement de modèles innovants de modélisation automatique des trajectoires de soins en utilisant des techniques avancées de representation learning et de Large Language Models (LLMs) appliquées aux données de santé. Les principales missions incluent : • Extraction et structuration de trajectoires temporelles à partir de données massives (diagnostics, actes, hospitalisations, prescriptions). • Développement de représentations patient à l’aide de modèles de deep learning. • Comparaison et évaluation de différentes approches de representation learning. • Identification de profils de soins, visualisation et interprétation des trajectoires representations. Profil du candidat : Compétences requises • Solides connaissances en machine learning, representation learning et modélisation de séries temporelles. • Maîtrise de Python (Pandas, NumPy, Scikit-learn, PyTorch/TensorFlow) et des bases de données SQL. • Langue française indispensable, niveau avancé en anglais (oral et écrit). • Excellentes capacités de rédaction scientifique et de communication. • Curiosité, rigueur scientifique, autonomie et goût pour le travail interdisciplinaire. Environnement de travail Formation et compétences requises : M2 Informatique/ IA/ Mathémathiquées appliqués Adresse d’emploi : 232 Bd de Sainte-Marguerite, 13009 Marseille Jan 15 Thu 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire Oceanographique de Villefranche-sur-me Durée : 6 mois Contact : enza.labourdette@imev-mer.fr Date limite de publication : 2026-01-15 Contexte : Le phytoplancton regroupe les micro-organismes marins dérivant au gré des courants et capables de produire de la matière organique grâce à la photosynthèse. Il joue un rôle essentiel dans le fonctionnement du système Terre : il contribue à environ la moitié de la photosynthèse planétaire, participe au stockage du carbone à l’échelle climatique via la pompe biologique, et constitue la base des réseaux trophiques marins. Mieux comprendre la répartition et la diversité du phytoplancton, en lien avec les conditions physiques et biogéochimiques de son environnement, est donc fondamental. Cela permet d’estimer plus finement sa biomasse, son rôle dans les cycles biogéochimiques et d’anticiper les réorganisations induites par les changements climatiques et océaniques globaux. Cependant, l’observation directe du phytoplancton à grande échelle demeure limitée, car elle repose sur des campagnes en mer et des prélèvements coûteux. Les données HPLC (High Performance Liquid Chromatography), qui permettent d’analyser les pigments photosynthétiques pour quantifier précisément les communautés phytoplanctoniques, offrent une référence fiable, mais restent coûteuses et spatialement limitées. Pour étendre ces observations ponctuelles à l’échelle globale, les satellites d’observation de la couleur de l’océan constituent un outil clé. Les algorithmes empiriques actuels permettent d’estimer la composition du phytoplancton à partir des réflectances optiques , mais ils présentent encore une marge d’erreur importante et ne capturent pas toujours la complexité spatiale et temporelle des structures océaniques (fronts, tourbillons, etc.). Sujet : Ce stage s’inscrit dans la continuité d’une thèse centrée sur la prédiction des Phytoplankton Functional Types (PFTs) à partir de la couleur de l’eau et de variables satellitaires à l’aide de méthodes de deep learning. L’objectif principal est d’améliorer la robustesse et la précision des prédictions en intégrant explicitement la dimension temporelle des données au moyen de méthodes avancées de deep learning. Concrètement, cela consiste à exploiter les images satellites des jours ou des semaines précédentes pour estimer la quantité et la composition du phytoplancton à un instant t donné. En effet, la croissance du phytoplancton est un processus dynamique, et son état actuel dépend fortement des états antérieurs du système. Un pipeline opérationnel est déjà en place : – les données satellitaires et in situ ont été extraites et prétraitées, – des modèles de type MLP (Multi-Layer Perceptron) ont été développés et évalués, – une première étude de la sensibilité, en termes de qualité des prédictions, aux variables d’entrée et à l’architecture du modèle a été menée, – une seconde étude, sur l’intégration de la dimension spatiale dans les données d’entrée, est en cours. Le stage consistera à poursuivre et à approfondir ces travaux, notamment en : – explorant de nouvelles architectures de deep learning (par ex. RNN) permettant de mieux capturer la structure temporelle des données ; – évaluant l’impact de cette intégration sur la qualité des prédictions de PFTs ; – affinant l’interprétation des modèles pour mieux comprendre les liens entre conditions environnementales et composition des communautés phytoplanctoniques. Ce travail contribuera directement à l’amélioration des produits satellitaires de distribution phytoplanctonique à l’échelle globale, utiles pour le suivi de la santé des écosystèmes marins et la gestion durable des ressources océaniques. Objectifs du Stage : – Compréhension de la problématique biologique. – Étude des relations entre les propriétés optiques de l’eau et les PFTs. – Prise en main et optimisation du pipeline existant, de la sélection et du traitement des données jusqu’à leur exploitation dans un modèle de deep learning. – Analyse de la variabilité spatio-temporelle : quantifier l’impact de l’intégration des dimensions spatiale et temporelle sur la prédiction des PFTs. – Mise en forme et valorisation des résultats pour une utilisation dans des travaux de recherche à publier. Profil du candidat : Formation et compétences requises : – Intérêt marqué pour la recherche et les sciences marines. – Maîtrise du langage Python. – Connaissances en deep learning (PyTorch). – Des notions en écologie, biologie marine ou océanographie seraient un atout. Adresse d’emploi : 181 chemin du Lazaret Villefranche-sur-Mer, France Document attaché : 202511140931_STAGE 2026 – ANNONCE.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : ICube Durée : 5-6 mois Contact : florence.leber@engees.unistra.fr Date limite de publication : 2026-01-15 Contexte : The restoration or naturalization of hydro-ecosystems is a major challenge for the coming years in order to protect and preserve the quality and quantity of river water. Many restoration works – both recent and historical – have generated large amounts of textual documentation (reports, archival documents, project plans, regulations, scientific articles) and visual material (maps, drawings, aerial/satellite imagery, photographs, cross-sectional charts). However, that material is often unstructured, scattered across institutions, in multiple languages, and not organized to support comparative analysis, learning, or decision-making effectively. Sujet : The main research task involves applying and refining VLMs to extract complementary information from visual and textual data. The VLMs should recognize and describe restoration structures, spatial configurations, and temporal stages (before, during, and after restoration) from images. They should extract objectives, methodologies, outcomes, and environmental parameters from text. A key scientific challenge lies in the multi-modal alignment of information linking visual elements and textual references to produce consistent and interpretable outcomes. Building on these results, the internship will contribute to the enrichment of an already existing structured knowledge model (ontology), describing restoration cases through key properties including intervention type, environmental context, methods, results, constraints, and costs. In addition to enriching the knowledge model, another key point is populating the knowledge model by constructing knowledge graphs with information extracted from images and text, ensuring querying, comparison, and visualization by researchers and practitioners. Profil du candidat : Knowledge on data science methods, knowledge representation and reasoning, knowledge graphs. Languages: Python, java, owl/sparql. Interest in the application domain, ability to work with experts who are not computer scientists would be appreciated. Formation et compétences requises : Student about to graduate a Master or Engineer (Bac + 5) with a specialization in Computer Science. Adresse d’emploi : ICube — 300 bd Sébastien Brant – CS 10413 – F-67412 Illkirch Cedex Meetings at ENGEES, 1 cour des cigarières, Strasbourg. Document attaché : 202511141617_Sujet_stage_TETRA_VLM.pdf Jan 16 Fri 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : PRISME / Université d’Orléans Durée : 6 mois Contact : youssef.fouzai@etu.univ-orleans.fr Date limite de publication : 2026-01-16 Contexte : Ce stage s’inscrit dans le cadre du projet régional CERES, porté par le BRGM en partenariat avec le laboratoire PRISME de l’Université d’Orléans, Thélem Assurances et l’Agglomération de Blois. L’objectif global du projet est de caractériser grâce à des techniques d’intelligence artificielle les éléments exposés du territoire du Centre-Val de Loire face aux risques naturels. On s’appuie sur des images satellitaires, d’autres issues de Google Street View (GSV )et des données cartographiques. Sujet : Dans le cadre du stage, les travaux à effectuer visent à approfondir l’analyse des façades de bâtiments, afin de produire des éléments exploitables pour caractériser leur vulnérabilité face aux risques naturels dont le retrait/gonflement argileux qui fissure les constructions. Une façade contient de nombreux indicateurs de vulnérabilité auxquels l’expert attache une grande attention comme la surface et la position des portes et fenêtres ou la géométrie du bâtiment, pour l’affecter à une classe de vulnérabilité. L’exploitation des images GSV utilisera des modèles deep learning pour détecter les façades dans les images et extraire des caractéristiques permettant d’en déduire un niveau de vulnérabilité Les résultats du stage seront exploités dans le cadre de la thèse du doctorant qui participera à l’encadrement du stagiaire. Profil du candidat : BAC+5 (Master 2/ école ingénieur) en informatique. Formation et compétences requises : BAC+5 (Master 2/ école ingénieur) en informatique avec de bonnes connaissances en traitement d’images, la maîtrise de la programmation Python (Pandas, NumPy, Scikitlearn, PyTorch/TensorFlow) ainsi qu’en apprentissage profond et un bon niveau d’anglais. Quelques connaissances en Systèmes d’Information Géographique (SIG) seraient également appréciées. Adresse d’emploi : Polytech, 12 Rue de Blois, 45100 Orléans Document attaché : 202510311400_Stage Master_PRISME_CERES_v1.pdf Jan 31 Sat 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIAS Durée : 6 mois Contact : baron@ensma.fr Date limite de publication : 2026-01-31 Contexte : Bimedia, filiale du groupe Orisha, est une entreprise spécialisée dans les solutions destinées aux points de vente de proximité (bureaux de tabac, boulangeries, etc.). Son offre repose sur un ensemble de services comprenant du matériel (caisses enregistreuses à double écran : le premier pour le commerçant et le second pour le client final), un logiciel d’encaissement, des solutions dématérialisées (cartes prépayées, etc.), ainsi que des dispositifs d’animation commerciale via des publicités diffusées sur l’écran client des caisses. Si le point de vente est identifié, le client final, lui, ne l’est pas. Pour pallier cette limite, une initiative récente baptisée BMyShop 1, proposée par Bimedia sous la forme d’une application mobile, permet d’associer certains clients finaux grâce à un programme de fidélité. Les informations collectées se limitent aux données strictement nécessaires (prénom, nom, âge) en conformité avec la réglementation (RGPD). Toutefois, cette base de clients finaux identifiés reste restreinte par rapport au volume de transactions réellement effectuées dans les commerces par des clients finaux anonymes, ce qui pose un défi scientifique pour exploiter des données partielles et anonymisées afin de caractériser, enrichir ou déduire des profils clients représentatifs. Bimedia s’est associée au laboratoire LIAS, dans le cadre d’un projet de recherche appliquée. Trois enseignants-chercheurs et un ingénieur de recherche encadreront un étudiant de Master 2 (université ou école d’ingénieurs). Le travail attendu visera à développer des techniques d’apprentissage automatique (clustering, apprentissage semi-supervisé, génération de données synthétiques, intégration de données externes, etc.) pour construire des profils représentatifs tout en garantissant l’anonymat des participants. Pour comparer sa proposition avec l’état de l’art, l’étudiant devra identifier des bancs d’essai adaptés ou en définir un nouveau. Un objectif secondaire consistera à calculer un indice de confiance sur le profil établi en utilisant la théorie des modèles probabilistes. Sujet : L’objectif de ce stage est d’explorer des approches d’analyse et d’enrichissement de données à partir des bases transactionnelles (l’historique d’achats) issues d’une part des clients identifiés via l’application BMyShop et, d’autre part, des clients anonymes. Le stage visera à définir des techniques permettant de caractériser et d’associer des profils clients à partir de données partielles : – élaboration de modèles prédictifs basés sur l’état de l’art et adaptés aux besoins spécifiques de Bimedia ; – évaluation des différents modèles obtenus ; – calcul d’indices de confiance sur les prédictions. Si possible, les techniques développées devront mener à des modèles explicables pour que les analystes métiers de Bimedia puisse comprendre et accorder une certaine confiance aux résultats obtenus. À noter que la réalisation d’un prototype de faisabilité sera demandé. Il ne s’agit pas de développer un logiciel industriel, qui lui sera à la charge de l’entreprise. L’entreprise souhaite juste s’assurer de la faisabilité technique et scientifique de la démarche proposée. Profil du candidat : Le candidat doit être en Master 2 en Informatique ou en dernière année de préparation d’un diplôme d’ingénieur spécialité Informatique. Formation et compétences requises : Une bonne connaissance du langage de programmation Python et des bibliothèques usuelles d’apprentissage automatique est requise. Un bon niveau en français est fondamental. Adresse d’emploi : https://www.lias-lab.fr/jobs/2026_lias_idd_profilsclients_fr.pdf Document attaché : 202511071103_2026_lias_idd_profilsclients_fr.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire d’Informatique et Systèmes – LIS – UMR Durée : 5 à 6 mois Contact : marc-emmanuel.bellemare@univ-amu.fr Date limite de publication : 2026-01-31 Contexte : Le stage se déroulera à Marseille essentiellement au laboratoire d’informatique et des systèmes (LIS) dans l’équipe Images & Modèles sur le campus de St Jérôme (https://im.lis-lab.fr). Le LIS UMR 7020 fédère plus de 375 membres. La recherche y est structurée au sein de pôles (calcul, science des données, analyse et contrôle des systèmes, signal et image), et centrée sur les activités dans les domaines de l’informatique, de l’automatique, du signal et de l’image. L’apprentissage profond en particulier y est un thème transverse et le LIS dispose d’une plateforme dédiée, un cluster de nœuds GPU ainsi que le personnel de gestion nécessaire. Sujet : La modélisation des déformations des organes abdominaux revêt une importance cruciale pour la santé des patients et pour de nombreuses applications cliniques, telles que la planification de la radiothérapie adaptative, le suivi de la progression des maladies ou encore l’analyse biomécanique des tissus. L’imagerie par résonance ma- gnétique (IRM) peut offrir une visualisation spatiale et en coupe des déformations d’organes in vivo. Cependant, l’état de l’art actuel présente plusieurs limitations, notamment en termes de résolution et de reconstruction fidèle de l’évolution tridimensionnelle et dynamique des organes. L’objectif de ce stage est de proposer des solutions innovantes pour pallier ces limites. Dans le cadre d’un projet de recherche mené en collaboration avec l’AP-HM, nous nous intéressons au suivi des déformations des principaux organes pelviens. L’approche actuelle [1, 4] consiste à détecter un contour sur une série d’images 2D, puis à effectuer un échantillonnage spatial de ce contour initial. Les contours suivants sont ensuite estimés de manière récurrente à l’aide d’un modèle de transport optimal, la déformation finale étant calculée à partir de la distance entre les points d’échantillonnage obtenus. Cependant, cette méthode présente plusieurs faiblesses : la construction de l’échantillonnage est souvent arbitraire, le transport optimal peut introduire des biais difficiles à maîtriser, et la définition même de la distance utilisée reste discutable. Ces éléments limitent la robustesse et la généralisabilité de l’approche, malgré son intérêt scientifique certain. Afin de dépasser ces limitations, ce stage vise à exploiter des modèles et méthodes récents capables d’apporter plus de cohérence et de précision à la modélisation des déformations. Le premier axe d’amélioration concerne la discrétisation : celle-ci peut être évitée grâce aux représentations neuronales implicites (Implicit Neural Representations, INRs). Ces dernières reposent sur le principe d’approximation universelle des réseaux de neurones, leur permettant de représenter n’importe quelle forme continue. Ainsi, le contour précédemment échantillonné sera alors directement modélisé par un réseau neuronal. Pour l’estimation des déformations, nous proposons d’utiliser des réseaux de neurones informés par la phyique (Physics-Informed Neural Networks, PINNs). L’idée est d’intégrer des contraintes issues des équations mécaniques de la déformation afin d’estimer à la fois le champ de déformation et les paramètres des lois de comportement des tissus. En résumé, le stage a pour objectif de combiner les représentations neuronales implicites et les réseaux de neurones informés par la physique afin de modéliser les déformations d’organes alignées sur des données d’imagerie IRM, offrant ainsi une approche plus continue, précise et physiquement cohérente de la dynamique des organes observés. Réalisation L’objectif principal de ce stage est de développer et d’évaluer des modèles de déformation d’organes, en s’appuyant sur des approches d’apprentissage profond et de modélisation physique. Les étapes et objectifs clés sont les suivants : — Développer une représentation neuronale implicite (INR) des contours de déformation de la vessie en 2D + temps. — Évaluer les performances de cette représentation en termes de précision et de continuité temporelle. — Concevoir une approche basée sur les réseaux de neurones informés par la physique afin de reconstruire le champ de déformation et d’estimer les paramètres mécaniques du comportement. — Évaluer les performances du PINN selon deux perspectives possibles : — comme modèle hybride, intégrant à la fois les données expérimentales et les contraintes issues des équations physiques, afin de guider l’apprentissage vers des solutions cohérentes avec les lois mécaniques. — ou comme problème inverse, visant à identifier les paramètres physiques (par ex. propriétés mécaniques des tissus) et les déformations spatiales à partir des données observées, tout en respectant les équations de la mécanique des milieux continus. — Perspective d’extension vers la 3D+temps Données Le projet s’appuiera sur un jeu de données d’IRM dynamiques de la vessie, collecté auprès de 50 patientes. L’échantillonnage temporel, à raison d’une image par seconde, des séquences sagittales dynamiques fournit 12 images par patiente. Les contours de la vessie ont été extraits de manière manuelle ou semi-automatique, sur l’ensemble des images de la séquence dynamique. Au total, 600 contours ont ainsi été obtenus, constituant la base de données utilisée pour l’apprentissage et l’évaluation des performances du modèle. Profil du candidat : Le ou la candidat.e sera intéressé.e par un domaine pluridisciplinaire embrassant l’analyse d’image, les mathématiques appliquées, le deep-learning, dans un contexte médical. Des connaissances en équations aux dérivées partielles (EDP) et en méthodes de résolution par éléments finis constituent un atout supplémentaire pour ce stage. Formation et compétences requises : De formation Bac+5 dans une formation concernée par le traitement d’image. Une expérience de la programmation avec l’environnement python est un pré-requis, la connaissance de la bibliothèque JAX serait un plus. Le stage aura une durée de 4 à 6 mois avec la gratification d’usage (de l’ordre de 600€ par mois). Adresse d’emploi : Laboratoire d’Informatique et Systèmes – LIS – UMR CNRS 7020 – Aix-Marseille Université Campus scientifique de St Jérôme – Av. Escadrille Normandie Niemen -13397 Marseille Cedex 20 www.lis-lab.fr Document attaché : 202511071339_M2_stage_LIS_PINN.pdf
|