Postes/PostDocs/CDD
Jan 31 Sat 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LPC2E – Laboratoire de Physique et Chimie de l’En Durée : 3 ans Contact : cherry.ng-guiheneuf@cnrs-orleans.fr Date limite de publication : 2026-02-28 Contexte : Les récentes avancées technologiques ont permis aux astronomes de numériser le ciel radio à une fraction de seconde près. Cette résolution temporelle sans précédent offre une sensibilité aux phénomènes transitoires qui nous auraient autrement échappé. Les transitoires à longue période (LPT) en sont un excellent exemple : il s’agit d’une nouvelle classe émergente de sources radio cohérentes qui remettent en question notre compréhension de la physique des émissions des étoiles à neutrons. Contrairement aux pulsars canoniques, qui présentent des périodes de rotation de quelques millisecondes à quelques secondes, les LPT émettent périodiquement sur des échelles de temps de quelques dizaines de secondes à quelques minutes, voire quelques heures. La découverte des LPT est tout à fait inattendue ; on pensait depuis longtemps qu’à mesure que les étoiles à neutrons ralentissaient et perdaient progressivement leur énergie de rotation, la production de paires et les émissions radio cohérentes devaient cesser au-delà de la « ligne de mort des pulsars ». L’existence de ces émetteurs à longue période soulève des questions fondamentales sur la manière dont l’émission cohérente est générée dans les magnétosphères lorsque la chute de potentiel disponible est insuffisante pour maintenir les cascades de paires. À ce jour, seule une douzaine de LPT ont été découverts, bien que la nature extrêmement intermittente de nombre d’entre eux suggère que beaucoup d’autres objets de ce type restent à détecter. La compréhension des LPT est essentielle pour faire progresser les modèles de magnétosphères des étoiles à neutrons, tester les limites de l’accélération des particules et de la génération de plasma, et potentiellement découvrir les liens évolutifs entre les pulsars, les magnétars et d’autres phénomènes radio transitoires tels que les sursauts radio rapides (FRB). En bref, l’étude des LPT offre une occasion unique d’explorer à la fois la physique des émissions cohérentes et l’évolution tardive des étoiles à neutrons. Elle permet également d’étudier les systèmes binaires de naines blanches, car au moins certains des LPT semblent être des systèmes « polaires » en interaction, dans lesquels un pont magnétique se forme entre une naine blanche et une autre étoile de faible masse. Sujet : Afin d’augmenter la taille de l’échantillon LPT et obtenir une image plus complète, nous exploiterons la multitude de données du futur radiotélescope CHORD, un instrument de nouvelle génération actuellement en construction au Canada et dont la mise en service est prévue en 2027. Grâce aux récentes avancées technologiques, CHORD disposera de deux capacités uniques : une vitesse de cartographie du ciel sans précédent et une couverture quotidienne répétée du ciel, les deux ingrédients clés pour une étude réussie des pulsars. Ce projet est entièrement financé par une subvention nationale de l’ANR. Le/la post-doctorant(e) dirigera le développement d’algorithmes de traitement du signal, le traitement des données temporelles et la modélisation. La tâche consistera notamment à optimiser le flux de travail et à le déployer sur des clusters GPU/CPU pour la production. À l’issue de ses trois années de recherche postdoctorale, le/la candidat(e) sera en mesure de faire preuve de leadership dans le cadre d’un projet de pointe sur les transitoires radio, en particulier dans le domaine des pulsars et des transitoires rapides. Le/la candidat(e) dirigera également l’étude de suivi des découvertes à l’aide du radiotélescope de Nançay (NRT) et du télescope NenuFAR de l’observatoire Radioastronomique de Nançay, en France. Le/la candidat(e) travaillera au suivi des découvertes à l’aide du Grand Radiotélescope de Nançay (NRT) et du télescope NenuFAR de l’Observatoire Radioastronomique de Nançay en France. Profil du candidat : La candidature doit être accompagnée d’un CV détaillé (3 pages maximum), de trois lettres de recommandation envoyées directement à cherry.ng-guiheneuf@cnrs-orleans.fr par les référents avant la date limite, ainsi que d’une lettre de motivation présentant la motivation du/de la candidat(e) à se former en tant que chercheur(euse) en astrophysique, et plus particulièrement au LPC2E/CNRS, son expérience de recherche, ses centres d’intérêt scientifiques, ainsi que ses projets et objectifs de carrière. Formation et compétences requises : Le/la candidat(e) doit être titulaire d’un doctorat en astrophysique (ou dans un domaine étroitement lié), être disponible à temps plein et avoir une bonne maîtrise de l’anglais. La capacité à travailler en collaboration et dans un cadre interdisciplinaire sera un élément déterminant dans l’évaluation des candidatures. Une expérience en programmation et en traitement du signal est requise. Adresse d’emploi : Le/la candidat sera accueilli(e) par l’équipe ASTRO au LPC2E à Orléans. L’équipe dispose du plus grand groupe de recherche sur les pulsars en France et est étroitement liée à l’Observatoire radioastronomique de Nançay, situé dans la forêt de Sologne. Le/la candidat(e) aura également l’occasion de voyager pour collaborer avec d’autres instituts partenaires, ainsi que de présenter ses travaux de recherche lors de conférences internationales. Un ordinateur portable lui sera fourni, ainsi que l’accès aux ressources informatiques nécessaires. La collaboration CHORD est une équipe multi-institutionnelle comptant plus de 100 membres. Parmi les instituts partenaires figurent notamment l’Université de Toronto, l’Université McGill, l’Institut Perimeter, l’Université de Colombie-Britannique, le MIT, l’INAF et le CNRS. Le réseau central du télescope CHORD est hébergé à l’Observatoire radio-astrophysique Dominion (DRAO) sur la côte ouest du Canada, et deux stations satellites seront construites aux observatoires de Green Bank et Hat Creek aux États-Unis. Les candidats sont invités à contacter les encadrants (Cherry Ng-Guiheneuf cherry.ng-guiheneuf@cnrs-orleans.fr et Gilles Theureau Gilles.Theureau@obspm.fr) pour discuter plus en détail. Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LITIS Lab, Rouen Normandie Durée : 18 months Contact : paul.honeine@univ-rouen.fr Date limite de publication : 2026-01-31 Contexte : Sujet : Anomaly detection is a challenge in itself. The capacity to detect anomalies is a major ingredient of safe and trustworthy AI systems across major application areas. Anomaly detection is unsupervised by nature, since abnormal events are rare, varied, and cumbersome to collect. Conventional methods can be roughly grouped into three interconnected categories: discriminative decision boundaries using one-class classification, reconstruction models that test any new sample by measuring its reconstruction error on a manifold or with prototypes, and probabilistic models based on density or level-set estimation. The major deep anomaly detection methods fall within these categories, redefined in a latent space generated by deep representation learning, such as deep one-class, autoencoders, generative adversarial networks, and self-supervised learning [1, 2]. The challenge is higher for anomaly detection in time series (i.e., temporal data), and it is even harder when it comes to online detection, namely in the context of streaming data [3, 4, 5]. When dealing with time series, temporal continuity is central to defining the “normality”, and thus to identifying and detecting anomalies. Time series may have specific characteristics such as seasonality, periodicity/cycles, trend, concept drift, recurrent concept drift, cyclostationarity, and non-stationarity, as well as modalities at multiple temporal scales. This post-doc fellowship aims to provide novel advances in anomaly detection in time series, mainly focusing on the even harder online detection, namely in the context of streaming data. For this purpose, the post-doc fellow will address one of the two online detection formalisms, which arise depending on whether the anomaly is short-term or persistent: – Point anomaly detection, namely, in an online setting, one seeks to detect whether each new sample is an anomaly. Anomalies may not be restricted to isolated samples, but may also form a group or sequence of points (often called collective anomalies). – Change point detection (also referred to as concept drift), namely, in an online setting, one seeks to identify, as early as possible, whether the recent samples have deviated significantly from the historical ones. This post-doc fellowship is an integral part of the global project ODD (Online Deep anomaly Detection). Led by the LITIS Lab, the ODD project brings together 4 PhD students and several permanent researchers from the Machine Learning group of the LITIS Lab. This project tackles a wide spectrum of signal scenarios to demonstrate the versatility of the proposed methods. The post-doc fellow will have the possibility to tackle signals in environmental science (including a startup collaboration), signals in industrial processes (including industrial and international collaborations), and medical signals/images (including a novel startup collaboration). [1] Ruff, L., Kauffmann, J. R., Vandermeulen, R. A., Montavon, G., Samek, W., Kloft, M., … & Müller, K. R. (2021). A unifying review of deep and shallow anomaly detection. Proceedings of the IEEE, 109(5), 756-795. [2] Pang, G., Shen, C., Cao, L., & Hengel, A. V. D. (2021). Deep learning for anomaly detection: A review. ACM computing surveys (CSUR), 54(2), 1-38. [3] Boniol, P., Liu, Q., Huang, M., Palpanas, T., & Paparrizos, J. (2024). Dive into time-series anomaly detection: A decade review. arXiv preprint arXiv:2412.20512. [4] Jia, X., Xun, P., Peng, W., Zhao, B., Li, H., & Shen, C. (2025). Deep anomaly detection for time series: A survey. Computer Science Review, 58, 100787. [5] Zamanzadeh Darban, Z., Webb, G. I., Pan, S., Aggarwal, C., & Salehi, M. (2024). Deep learning for time series anomaly detection: A survey. ACM Computing Surveys, 57(1), 1-42. Profil du candidat : Requirements:
PhD in applied mathematics, machine learning, advanced statistics, computer science or related.
Strong background in advanced optimization and machine learning.
Proficiency in Python. If interested, please send CV in a motivational email to paul.honeine@univ-rouen.fr, maxime.berar@univ-rouen.fr and fannia.pacheco@univ-rouen.fr Formation et compétences requises : Adresse d’emploi : Rouen, Normandie Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IRISA Durée : 12-18 months Contact : zoltan.miklos@irisa.fr Date limite de publication : 2026-01-31 Contexte : Innovation project, in collaboration between University of Rennes / IRISA and the companies Obsam and Kereval Sujet : Libre, as long as it is linked to the objectives to the project (see document attached) keywords: RAGs, ontologies, LLMs Profil du candidat : Formation et compétences requises : Adresse d’emploi : Lannion (priority) or Rennes Document attaché : 202512201125_Postdoc offer PrediObso_v2.pdf Apr 29 Wed 2026 Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : Université de Technologie de Troyes Durée : 4 ans (2+2) Contact : malika.kharouf@utt.fr Date limite de publication : 2026-04-29 Contexte : L’expert (F/H) en Intelligence Artificielle sera intégrée à la Direction de la Formation et de la Pédagogie (DFP) de l’Université de Technologie de Troyes (UTT). Dans le cadre du Cluster IA Hi!Paris, financé par France 2030, elle fera partie d’une équipe projet impliquant la formation initiale, la formation continue, la coopérative pédagogique (le centre d’innovation pédagogique de l’UTT) et aura pour missions principales : 1. Le soutien actif à la création et la mise à jour des contenus pédagogiques dédiés au Bachelor en Intelligence Artificielle. 2. L’apport de son expertise technique et scientifique aux équipes enseignantes, de la DFP et de la Coop afin d’assurer la qualité, la pertinence et l’innovation des contenus proposés. 3. Assurer un volume annuel de 100 heures équivalent Travaux Dirigés (TD) 4. Contribuer aux comptes rendus, rapports d’activité et constitution de pièces justificatives demandées par le financeur. Sujet : Activités principales : • Identifier les besoins spécifiques en formation IA. • Adapter les contenus pédagogiques à différents publics (débutants, confirmés, professionnels). • Assister les équipes pédagogiques dans l’intégration des dernières avancées technologiques et scientifiques en IA. • Organiser des sessions de formation interne et/ou d’accompagnement pédagogique. • Dispenser des enseignements de l’IA comprenant cours magistraux, travaux dirigés, travaux pratiques et projets. • Évaluer les compétences acquises par les étudiants. • Participer aux jurys d’examen et à la coordination pédagogique du Bachelor.• Garantir la pertinence, l’actualité et l’évolutivité des ressources pédagogiques en fonction des avancées du domaine • Contribuer à la démarche qualité des formations : recueil des retours d’expérience, évaluation des apprentissages, ajustements continus • Soutenir, ponctuellement, les activités de la DFP Profil du candidat : • Connaissances approfondies des fondements théoriques et techniques de l’Intelligence Artificielle (machine learning, deep learning, NLP, vision artificielle, systèmes experts, apprentissage par renforcement, éthique de l’IA, optimisation algorithmique, statistiques avancées). • Connaissances générales des principaux outils et plateformes utilisés en IA (TensorFlow, PyTorch, scikit-learn, Keras, etc.). • Capacité à créer, adapter et mettre à jour des contenus pédagogiques innovants adaptés à différents formats (présentiel, distanciel, hybride). • Mise en œuvre de cas réels ou simulés d’utilisation de l’IA lors de projets ou de TP. • Maîtrise des outils technologiques et pédagogiques liés à l’IA. • Aptitude à évaluer efficacement les compétences des étudiants. • Rédiger des documents pédagogiques, rapports d’activités, bilans et supports de communication Formation et compétences requises : Adresse d’emploi : 12 rue Marie Curie, 10300 Troyes Document attaché : 202509111211_F_H Ingénieur_Expert_IA.pdf Apr 30 Thu 2026 Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : Télécom Paris – LTCI Durée : CDI Contact : sebastien.canard@telecom-paris.fr Date limite de publication : 2026-04-30 Contexte : Télécom Paris, centre international pluridisciplinaire de formation, recherche et innovation, est une référence dans le monde du numérique. Dans un contexte fortement d’actualité, où l’essor simultané de l’intelligence artificielle (IA) et de la cybersécurité transforme profondément les systèmes numériques et crée un besoin croissant d’expertise à leur interface. L’IA est aujourd’hui à la fois un outil, une cible, une menace, et un levier de protection. C’est pourquoi le département Informatique et Réseaux (INFRES) et plus particulièrement l’équipe Cybersécurité et Cryptographie (C2) a besoin de se renforcer grâce au recrutement d’un ou une maître.sse de conférence en IA et cybersécurité, capable de travailler dans ce domaine avec les nombreuses équipes de l’École telles que Systèmes embarqués critiques autonomes (ACES), Données, Intelligence et Graphes (DIG) à INFRES ou également Statistique, Signal et Apprentissage (S2A) à IDS, mais aussi avec d’autres équipes de l’Institut Polytechnique de Paris à l’École Polytechnique ou à Télécom SudParis. Ce recrutement vise à renforcer la formation et la recherche sur ces enjeux émergents, en intégrant des compétences transversales allant des techniques d’apprentissage automatique à la sécurité des systèmes et des données. Sujet : Les expertises attendues couvrent un spectre large mais cohérent situé au cœur des interactions entre intelligence artificielle et cybersécurité : – la compréhension et la modélisation des attaques exploitant l’IA (techniques d’apprentissage génératif : phishing avancé, reconnaissance de vulnérabilités, génération de trafic ou de charges malveillantes) – la conception et l’évaluation de méthodes d’IA pour la détection d’intrusions, l’analyse comportementale, la corrélation d’événements massifs, la détection d’anomalies, la classification de malwares, le traitement de flux distribués (edge computing, apprentissage fédéré) – la sécurité intrinsèque de l’IA, notamment la robustesse des modèles (défense contre-attaques adversariales, résistance aux manipulations et aux corruptions de données), la protection des données utilisées pour l’entraînement ou l’inférence (confidentialité, anonymisation, préservation de la vie privée, techniques cryptographiques ou fédérées), la traçabilité et la confiance dans les modèles (certification, explicabilité, auditabilité), ainsi que la sécurité des chaînes d’apprentissage et des environnements d’exécution. Profil du candidat : Vos missions seront donc celles-ci : – Recherche : les candidats et candidates pourront se positionner sur une ou plusieurs de ces dimensions, et une attention particulière sera portée à la capacité à articuler l’IA et la cybersécurité, avec des contributions théoriques, méthodologiques ou expérimentales permettant d’éclairer et de renforcer la sûreté, la robustesse et la résilience des systèmes numériques contemporains. Le poste s’adresse à la fois à des chercheurs et chercheuses en IA disposant d’une forte appétence pour la cybersécurité, et à des profils présentant une double compétence IA–cybersécurité, capables de contribuer au développement de travaux académiques de haut niveau dans ce domaine en pleine structuration. – Enseignement : la future personne pourrait être amenée à intervenir dans les enseignements fondamentaux (algorithmique, structures de données, probabilités, statistiques, optimisation, programmation, réseaux, systèmes) qui constituent la base indispensable à la maîtrise des approches modernes en IA et en sécurité numérique. Parallèlement, l’ouverture récente d’un parcours dédié à l’IA et à la cybersécurité crée un besoin important d’expertise pédagogique sur l’apprentissage automatique, sécurité des réseaux et des systèmes, détection d’intrusions, sécurité et robustesse des modèles, protection des données, cryptographie appliquée, etc. Le ou la candidat·e recruté·e aura ainsi un rôle structurant dans la coordination et l’articulation des enseignements du domaine, en participant à la conception de nouveaux modules, en veillant à l’intégration harmonieuse des compétences IA et cybersécurité dans les cursus. – Animation et participation à la notoriété de l’école et de l’institut Polytechnique de Paris : la personne participera à des séminaires, soutenances, etc, et développera des relations étroites avec les institutions académiques, les centres de recherche et les entreprises. Formation et compétences requises : Pour réussir dans ce rôle, vous devrez également disposer d’un doctorat et maîtriser l’anglais. Adresse d’emploi : Pour candidater : https://institutminestelecom.recruitee.com/o/enseignante-chercheuse-ou-enseignant-chercheur-en-ia-et-cybersecurite Télécom Paris 19 place Marguerite Perey 91120 Palaiseau
|
Offres de stages
Jan 23 Fri 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LITIS Lab, Rouen Normandie Durée : 5 to 6 months Contact : paul.honeine@univ-rouen.fr Date limite de publication : 2026-01-23 Contexte : Sujet : The foundation model (FM) paradigm is undoubtedly a major breakthrough in Machine Learning (ML) for Artificial Intelligence (AI). An FM is a large-scale neural network pre-trained with self-supervision on a vast unannotated dataset and designed to perform downstream tasks with minimal fine-tuning on small annotated datasets. While FMs have made an outstanding leap in computer vision and large language models, they have not yet emerged in fields where data is more complex, such as hyperspectral imaging and chemical analysis. Unlike traditional cameras with their primary colors (red, green, and blue), hyperspectral cameras capture detailed spectral information at every pixel, providing a detailed description of the properties of the material in the scene. ML methods have been devised to explore hyperspectral images, mainly addressing spectral unmixing, classification, and segmentation tasks. With the FM paradigm reshaping the landscape of ML, there is growing interest in FMs for hyperspectral imaging, with several papers published very recently mainly for image segmentation in airborne or satellite images [1, 2, 3]. This internship, leading to a PhD thesis, is an integral part of the interdisciplinary project HyFoundationS (Hyperspectral Foundation Models for Chemical Soil Analysis). Led by the LITIS Lab, HyFoundationS aims to develop an FM for chemical analysis of soil pollution by hyperspectral imaging. In order to unleash the full potential of FMs in the analysis of soil pollution, HyFoundationS brings together an AI laboratory (LITIS), a chemistry laboratory (Institut CARMeN), and a startup specialized in soil pollution analysis (Tellux). This consortium has been working together for more than 5 years, developing ML and chemical analysis for soil pollution assessment using hyperspectral cameras installed on a bench in lab conditions, allowing full environmental control on a wide variety of pollutants. HyFoundationS aims to provide major innovations to overcome key scientific and technical barriers for soil pollution analysis with FMs. The intern will work (i) on reviewing the literature of FMs for hyperspectral imaging, focusing on several recently published papers [1, 2, 3], (ii) on providing a solid local implementation of an FM, (iii) on extending it to address chemical analysis tasks, and (iv) on providing experiments and evaluation for a case study. This work will be carried out in close collaboration with post-doc fellows, engineers, and senior researchers in AI, in chemical analysis, and in geoscience. [1] N. A. A. Braham, C. M. Albrecht, J. Mairal, J. Chanussot, et al., “SpectralEarth: Training hyperspectral foundation models at scale.” IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing (2025). [2] D. Wang, M. Hu, Y. Jin, Y. Miao, et al., “Hypersigma: Hyperspectral intelligence comprehension foundation model.” IEEE Transactions on Pattern Analysis and Machine Intelligence, 2025. [3] D. Hong, B. Zhang, X. Li, Y. Li, C. Li, et al., “SpectralGPT: Spectral remote sensing foundation model,” IEEE Transactions on Pattern Analysis and Machine Intelligence, 2024. Profil du candidat : We are seeking a highly motivated intern with a strong interest in AI for science. The candidate must be in a Master’s or an engineering program in computer science, applied mathematics, AI, or a related field (including remote sensing), and must have solid technical skills in deep learning, with experience in Python and the common ML libraries. Candidates with a strong interest in interdisciplinary research and who are able to work in a collaborative environment are strongly encouraged to apply. If interested in an internship leading to a PhD, please send your CV and transcripts along with a motivational email to paul.honeine@univ-rouen.fr. We also welcome applications for a PhD or Post-doc within the project HyFoundationS. Formation et compétences requises : Adresse d’emploi : Rouen Normandie Jan 30 Fri 2026 Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : LS2N – Nantes Université Durée : 5-6 months Contact : yannick.prie@univ-nantes.fr Date limite de publication : 2026-01-30 Contexte : In collaboration with the LPPL, we have developed and tested a new embodied and immersive environment for assessing prospective memory. This environment is based on a learning task in which users must remember event- and time-based actions, in order to complete tasks in a large shopping mall. Last year, a first experiment enabled us to collect user behavioral data from around 50 participants in 3 age categories (young adults, middle-aged, seniors) in this virtual environment. Classical memory scores (e.g., successes, type of failures, times…) were computed to assess the validity of this new virtual environment for evaluating prospective memory. We have designed a second experiment with two additional scenarios in the virtual mall and will test it this year with healthy participants and patients. A key advantage of using virtual reality for neuropsychological assessment is the ability to use users’ behaviour, from user logs and trajectory data, to personally and accurately characterize users’ performance and cognitive state. A key challenge towards this goal is defining new indicators or metrics that are useful for clinicians and integrating them into clinician dashboards. The complex nature of the behavioral data and the limited number of subjects currently available makes modeling difficult. Sujet : The objective of this internship is to develop and assess a framework based on multimodal generative AI models that can visualize and model this behavioral data in order to propose new indicators for clinical use. Missions – State of the Art on behavioral indicators for neuropsychological/cognitive assessment – Design AI-based workflows / architecture for data analysis – Propose new indicators based on AI-framework – Construct dashboards Profil du candidat : Last year in Engineering / Master’s degree Duration : 5 / 6 months Conditions: around 600€ / Month + half public-transportation monthly ticket Formation et compétences requises : Computer science or data science – Knowledge and proficient use of generative AI – Interest for cognitive sciences et interdisciplinarity – Proficient in English Send CV + motivation to yannick.prie@univ-nantes.fr, toinon.vigier@univ-nantes.fr Adresse d’emploi : Halle 6 Ouest on Nantes Island (https://halle6ouest.univ-nantes.fr/) and Polytech Nantes Jan 31 Sat 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IRIT (Institut de Recherche en Informatique de Tou Durée : 6 mois Contact : hugo.boisaubert@irit.fr Date limite de publication : 2026-01-31 Contexte : La finalité de ce stage est de contribuer à l’amélioration de la qualité des soins et de la vie des patients, tout en optimisant les ressources du système de santé avec des retombées potentielles applicables à d’autres secteurs et contextes cliniques.\ Dans le contexte médical, l’utilisation des modèles de processus ouvre de nouvelles possibilités pour la simulation de patient au bloc opératoire, la prédiction de ses futurs états ou encore la prédiction des besoins en médicaments. D’un point de vue décisionnel, les modèles de processus combinés aux données médicales peuvent permettre de nouvelles prédictions pour orienter un soignant dans les soins les plus adaptés à réaliser les plus adaptés aux patients dans une logique de médecine personnalisée. Les processus de soins produisent des données qui peuvent être utilisée par des approche de modélisation automatique de processus. Cependant, alors que les données produites sont multi-modales (séries temporelles, textes, images, “mesures terrain”…), cette caractéristique est rarement exploitée. Sujet : Pour concrétiser ces possibilités, au cours de ce stage, il s’agira d’abord de constituer un état de l’art des approches de modélisation semi-automatique de processus, avec un focus particulier sur les cas d’application en santé. À partir des éléments identifiés, ce stage explorera de manière expérimentale l’enrichissement de processus par des données multimodales de santé dans un contexte d’anesthésie. Profil du candidat : Étudiant.e en cycle master ou ingénieur, en Informatique ou mention similaires, appétence pour la santé-numérique ou la bio-informatique. Formation et compétences requises : — Rigueur en programmation et capacité à générer de la documentation, avec usage des outils standard (Git, Doctest, Sphinx ou équivalents) ; — Des compétences en bases de données (SQL) sont attendues et une expérience en calcul intensif (ordonnanceur, parallélisation) sera appréciée ; — Capacités à rendre compte de son travail régulièrement et à produire des outils de suivi et de pilotage ; — Capacité à produire efficacement des documents de communication scientifique. Langues : Maîtrise du Français (Niveau A2), conversationnel et écrit ; Maîtrise de l’anglais scientifique, écrit. Les certifications attestant de votre niveau en langues sont vivement encouragées. Adresse d’emploi : IRIT – IUT de Castres, 5 allée du Martinet 81100 CASTRES Document attaché : 202512241517_stage_m2_2026_modele_processus-4.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIAS Durée : 6 mois Contact : baron@ensma.fr Date limite de publication : 2026-01-31 Contexte : Bimedia, filiale du groupe Orisha, est une entreprise spécialisée dans les solutions destinées aux points de vente de proximité (bureaux de tabac, boulangeries, etc.). Son offre repose sur un ensemble de services comprenant du matériel (caisses enregistreuses à double écran : le premier pour le commerçant et le second pour le client final), un logiciel d’encaissement, des solutions dématérialisées (cartes prépayées, etc.), ainsi que des dispositifs d’animation commerciale via des publicités diffusées sur l’écran client des caisses. Si le point de vente est identifié, le client final, lui, ne l’est pas. Pour pallier cette limite, une initiative récente baptisée BMyShop 1, proposée par Bimedia sous la forme d’une application mobile, permet d’associer certains clients finaux grâce à un programme de fidélité. Les informations collectées se limitent aux données strictement nécessaires (prénom, nom, âge) en conformité avec la réglementation (RGPD). Toutefois, cette base de clients finaux identifiés reste restreinte par rapport au volume de transactions réellement effectuées dans les commerces par des clients finaux anonymes, ce qui pose un défi scientifique pour exploiter des données partielles et anonymisées afin de caractériser, enrichir ou déduire des profils clients représentatifs. Bimedia s’est associée au laboratoire LIAS, dans le cadre d’un projet de recherche appliquée. Trois enseignants-chercheurs et un ingénieur de recherche encadreront un étudiant de Master 2 (université ou école d’ingénieurs). Le travail attendu visera à développer des techniques d’apprentissage automatique (clustering, apprentissage semi-supervisé, génération de données synthétiques, intégration de données externes, etc.) pour construire des profils représentatifs tout en garantissant l’anonymat des participants. Pour comparer sa proposition avec l’état de l’art, l’étudiant devra identifier des bancs d’essai adaptés ou en définir un nouveau. Un objectif secondaire consistera à calculer un indice de confiance sur le profil établi en utilisant la théorie des modèles probabilistes. Sujet : L’objectif de ce stage est d’explorer des approches d’analyse et d’enrichissement de données à partir des bases transactionnelles (l’historique d’achats) issues d’une part des clients identifiés via l’application BMyShop et, d’autre part, des clients anonymes. Le stage visera à définir des techniques permettant de caractériser et d’associer des profils clients à partir de données partielles : – élaboration de modèles prédictifs basés sur l’état de l’art et adaptés aux besoins spécifiques de Bimedia ; – évaluation des différents modèles obtenus ; – calcul d’indices de confiance sur les prédictions. Si possible, les techniques développées devront mener à des modèles explicables pour que les analystes métiers de Bimedia puisse comprendre et accorder une certaine confiance aux résultats obtenus. À noter que la réalisation d’un prototype de faisabilité sera demandé. Il ne s’agit pas de développer un logiciel industriel, qui lui sera à la charge de l’entreprise. L’entreprise souhaite juste s’assurer de la faisabilité technique et scientifique de la démarche proposée. Profil du candidat : Le candidat doit être en Master 2 en Informatique ou en dernière année de préparation d’un diplôme d’ingénieur spécialité Informatique. Formation et compétences requises : Une bonne connaissance du langage de programmation Python et des bibliothèques usuelles d’apprentissage automatique est requise. Un bon niveau en français est fondamental. Adresse d’emploi : https://www.lias-lab.fr/jobs/2026_lias_idd_profilsclients_fr.pdf Document attaché : 202511071103_2026_lias_idd_profilsclients_fr.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire d’Informatique et Systèmes – LIS – UMR Durée : 5 à 6 mois Contact : marc-emmanuel.bellemare@univ-amu.fr Date limite de publication : 2026-01-31 Contexte : Le stage se déroulera à Marseille essentiellement au laboratoire d’informatique et des systèmes (LIS) dans l’équipe Images & Modèles sur le campus de St Jérôme (https://im.lis-lab.fr). Le LIS UMR 7020 fédère plus de 375 membres. La recherche y est structurée au sein de pôles (calcul, science des données, analyse et contrôle des systèmes, signal et image), et centrée sur les activités dans les domaines de l’informatique, de l’automatique, du signal et de l’image. L’apprentissage profond en particulier y est un thème transverse et le LIS dispose d’une plateforme dédiée, un cluster de nœuds GPU ainsi que le personnel de gestion nécessaire. Sujet : La modélisation des déformations des organes abdominaux revêt une importance cruciale pour la santé des patients et pour de nombreuses applications cliniques, telles que la planification de la radiothérapie adaptative, le suivi de la progression des maladies ou encore l’analyse biomécanique des tissus. L’imagerie par résonance ma- gnétique (IRM) peut offrir une visualisation spatiale et en coupe des déformations d’organes in vivo. Cependant, l’état de l’art actuel présente plusieurs limitations, notamment en termes de résolution et de reconstruction fidèle de l’évolution tridimensionnelle et dynamique des organes. L’objectif de ce stage est de proposer des solutions innovantes pour pallier ces limites. Dans le cadre d’un projet de recherche mené en collaboration avec l’AP-HM, nous nous intéressons au suivi des déformations des principaux organes pelviens. L’approche actuelle [1, 4] consiste à détecter un contour sur une série d’images 2D, puis à effectuer un échantillonnage spatial de ce contour initial. Les contours suivants sont ensuite estimés de manière récurrente à l’aide d’un modèle de transport optimal, la déformation finale étant calculée à partir de la distance entre les points d’échantillonnage obtenus. Cependant, cette méthode présente plusieurs faiblesses : la construction de l’échantillonnage est souvent arbitraire, le transport optimal peut introduire des biais difficiles à maîtriser, et la définition même de la distance utilisée reste discutable. Ces éléments limitent la robustesse et la généralisabilité de l’approche, malgré son intérêt scientifique certain. Afin de dépasser ces limitations, ce stage vise à exploiter des modèles et méthodes récents capables d’apporter plus de cohérence et de précision à la modélisation des déformations. Le premier axe d’amélioration concerne la discrétisation : celle-ci peut être évitée grâce aux représentations neuronales implicites (Implicit Neural Representations, INRs). Ces dernières reposent sur le principe d’approximation universelle des réseaux de neurones, leur permettant de représenter n’importe quelle forme continue. Ainsi, le contour précédemment échantillonné sera alors directement modélisé par un réseau neuronal. Pour l’estimation des déformations, nous proposons d’utiliser des réseaux de neurones informés par la phyique (Physics-Informed Neural Networks, PINNs). L’idée est d’intégrer des contraintes issues des équations mécaniques de la déformation afin d’estimer à la fois le champ de déformation et les paramètres des lois de comportement des tissus. En résumé, le stage a pour objectif de combiner les représentations neuronales implicites et les réseaux de neurones informés par la physique afin de modéliser les déformations d’organes alignées sur des données d’imagerie IRM, offrant ainsi une approche plus continue, précise et physiquement cohérente de la dynamique des organes observés. Réalisation L’objectif principal de ce stage est de développer et d’évaluer des modèles de déformation d’organes, en s’appuyant sur des approches d’apprentissage profond et de modélisation physique. Les étapes et objectifs clés sont les suivants : — Développer une représentation neuronale implicite (INR) des contours de déformation de la vessie en 2D + temps. — Évaluer les performances de cette représentation en termes de précision et de continuité temporelle. — Concevoir une approche basée sur les réseaux de neurones informés par la physique afin de reconstruire le champ de déformation et d’estimer les paramètres mécaniques du comportement. — Évaluer les performances du PINN selon deux perspectives possibles : — comme modèle hybride, intégrant à la fois les données expérimentales et les contraintes issues des équations physiques, afin de guider l’apprentissage vers des solutions cohérentes avec les lois mécaniques. — ou comme problème inverse, visant à identifier les paramètres physiques (par ex. propriétés mécaniques des tissus) et les déformations spatiales à partir des données observées, tout en respectant les équations de la mécanique des milieux continus. — Perspective d’extension vers la 3D+temps Données Le projet s’appuiera sur un jeu de données d’IRM dynamiques de la vessie, collecté auprès de 50 patientes. L’échantillonnage temporel, à raison d’une image par seconde, des séquences sagittales dynamiques fournit 12 images par patiente. Les contours de la vessie ont été extraits de manière manuelle ou semi-automatique, sur l’ensemble des images de la séquence dynamique. Au total, 600 contours ont ainsi été obtenus, constituant la base de données utilisée pour l’apprentissage et l’évaluation des performances du modèle. Profil du candidat : Le ou la candidat.e sera intéressé.e par un domaine pluridisciplinaire embrassant l’analyse d’image, les mathématiques appliquées, le deep-learning, dans un contexte médical. Des connaissances en équations aux dérivées partielles (EDP) et en méthodes de résolution par éléments finis constituent un atout supplémentaire pour ce stage. Formation et compétences requises : De formation Bac+5 dans une formation concernée par le traitement d’image. Une expérience de la programmation avec l’environnement python est un pré-requis, la connaissance de la bibliothèque JAX serait un plus. Le stage aura une durée de 4 à 6 mois avec la gratification d’usage (de l’ordre de 600€ par mois). Adresse d’emploi : Laboratoire d’Informatique et Systèmes – LIS – UMR CNRS 7020 – Aix-Marseille Université Campus scientifique de St Jérôme – Av. Escadrille Normandie Niemen -13397 Marseille Cedex 20 www.lis-lab.fr Document attaché : 202511071339_M2_stage_LIS_PINN.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire d’Informatique et Systèmes LIS – UMR Durée : 5 à 6 mois Contact : marc-emmanuel.bellemare@lis-lab.fr Date limite de publication : 2026-01-31 Contexte : Le stage se déroulera à Marseille essentiellement au laboratoire d’informatique et des systèmes (LIS) dans l’équipe Images & Modèles sur le campus de St Jérôme (https://im.lis-lab.fr). Le LIS UMR 7020 fédère plus de 375 membres. La recherche y est structurée au sein de pôles (calcul, science des données, analyse et contrôle des systèmes, signal et image), et centrée sur les activités dans les domaines de l’informatique, de l’automatique, du signal et de l’image. L’apprentissage profond en particulier y est un thème transverse et le LIS dispose d’une plateforme dédiée, un cluster de nœuds GPU ainsi que le personnel de gestion nécessaire. Sujet : Le stagiaire s’attachera à la segmentation des images acquises lors de l’observation par IRM dynamique des déformations des organes pelviens afin de produire des reconstructions 3D des surfaces en mouvement. Les troubles de la statique pelvienne représentent un enjeu de santé publique. Ils regroupent un ensemble de pathologies associant une perte des rapports anatomiques normaux des organes pelviens, et une altération dramatique de la qualité de vie des malades. Ces pathologies sont handicapantes à des degrés variés mais leur physiopathologie reste encore mal connue ce qui complique leur prise en charge. Dans le cadre d’une collaboration avec le service de chirurgie digestive de l’AP-HM, de nouvelles acquisitions IRM, associées à une reconstruction adaptée, ont permis la visualisation 3D des organes en mouvement. Des résultats probants ont été récemment obtenus et publiés pour l’observation de la vessie (Figure) et il s’agit de s’intéresser aux autres organes pelviens. Des acquisitions multi-planaires ont été réalisées dans des plans non classiques ce qui complique la reconnaissance des organes. Ainsi la segmentation des principaux organes impliqués est une étape primordiale mais difficile. Les partenaires cliniciens ont réalisé des segmentations manuelles des organes sur ces plans ce qui permet de disposer d’une vérité-terrain. Nous envisageons de proposer un nouveau modèle de réseau, adapté à la configuration des plans d’acquisition. Les problématiques de recalage, de segmentation et de modèles 3D, au cœur du projet, seront abordées selon les compétences et préférences du stagiaire. Profil du candidat : Le candidat ou la candidate de niveau Bac+5 dans une formation intégrant le traitement d’images, sera intéressé(e) par un projet pluridisciplinaire et par l’imagerie médicale. Les domaines abordés concernent les réseaux de neurones profonds, la segmentation d’IRM et la reconstruction 3D. Le stage aura une durée de 4 à 6 mois avec la gratification d’usage (de l’ordre de 600€). Formation et compétences requises : La compétence en programmation python est un pré-requis. Des compétences en mathématiques appliquées seront particulièrement appréciées. Une expérience de la programmation avec l’environnement PyTorch serait un plus. Adresse d’emploi : Laboratoire d’Informatique et Systèmes – LIS – UMR CNRS 7020 – Aix-Marseille Université Campus scientifique de St Jérôme – Av. Escadrille Normandie Niemen -13397 Marseille Cedex 20 www.lis-lab.fr Document attaché : 202511071329_Sujet_Master2_DL&SegmentationMultiPlan.pdf Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : IRISA/UBS Durée : 6 mois Contact : minh-tan.pham@irisa.fr Date limite de publication : 2026-01-31 Contexte : Sujet : Please see the attached PDF file. Profil du candidat : Formation et compétences requises : Adresse d’emploi : IRISA-UBS, 56000 Vannes Document attaché : 202510091448_2025_Master_topic_Dreams.pdf Feb 1 Sun 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LaSTIG – IGN Durée : 6 mois Contact : alexandre.hippert-ferrer@ign.fr Date limite de publication : 2026-02-01 Contexte : Sujet : Voir offre au format pdf. Profil du candidat : Niveau Master 2 en Machine Learning / Télédétection / Sciences de la Terre Formation et compétences requises : The internship requires a genuine interest and curiosity in Earth sciences (glaciology and climate science in particular). Strong skills in statistical mathematics, deep learning, computer vision, and remote sensing are expected. Proficiency in one or more machine learning libraries in Python (PyTorch, Tensorflow, Keras) is expected. A good level of scientific computing with Python (scipy, scikit-learn, numpy) is also required. Adresse d’emploi : LaSTIG Laboratory, IGN/ENSG, 6-8 avenue Blaise Pascal, 77420 Champs-sur-Marne, France. Document attaché : 202510081015_fiche_stageM2_GlacierDeepLearning_eng.pdf Feb 2 Mon 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire DVRC Durée : 4-6 mois Contact : christophe.rodrigues@devinci.fr Date limite de publication : 2026-02-02 Contexte : Sujet : M2 Research Internship Generative AI for Ransomware Time‑Series Detection The context of the work is Owlyshield, a behavioral time‑series dataset built from Endpoint Detection and Response (EDR) logs to detect ransomware attacks. We aim to generate realistic synthetic sequences that preserve temporal structure and inter‑feature dependencies to improve anomaly detection (benign or ransomware) on this dataset. Missions The intern will: review deep generative models for time series (with a focus on transformer‑style methods); design and implement conditional generative models (e.g., TimeGAN‑like architectures) to produce labeled multivariate sequences consistent with Owlyshield statistics; define quality metrics (distributional similarity, temporal coherence, correlation structures); evaluate the impact of synthetic data on downstream ransomware/anomaly detection performance. Profile M2 student in Computer Science, Data/AI, or Applied Mathematics. Solid background in machine learning and Python; experience with deep learning (PyTorch or TensorFlow) and time‑series data. Knowledge of generative models (GANs/VAEs) and transformers, cybersecurity is a plus. Autonomy, rigor, and good written English are expected. Practical information Duration: 4-6 months (full-time, 2026). Location: ESILV, Paris Supervision: Sourav Rai, Christophe Rodrigues and Nga Nguyen Application Send CV, cover letter, grades and recommendation letters to christophe.rodrigues@devinci.fr and nga.nguyen@devinci.fr with subject: “M2 Internship – Generative Time‑Series”. Dataset/ References [1] SitInCloud, “Ransomware Detection (Owlyshield documentation),” https://docs.sitincloud.com/concepts/ransomware-detection.html [2] J. Yoon, D. Jarrett, M. van der Schaar, “Time‑series Generative Adversarial Networks,” NeurIPS, 2019. [3] X. Li, V. Metsis, H. Wang, A. H. H. Ngu, “TTS-GAN: A Transformer-based Time-Series Generative Adversarial Network,” in Proc. 20th Int. Conf. on Artificial Intelligence in Medicine (AIME), 2022. Profil du candidat : Formation et compétences requises : Adresse d’emploi : Paris, La Défense Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire DVRC Durée : 4-6 mois Contact : christophe.rodrigues@devinci.fr Date limite de publication : 2026-02-02 Contexte : Sujet : M2 Research Internship Generative AI for Ransomware Time‑Series Detection The context of the work is Owlyshield, a behavioral time‑series dataset built from Endpoint Detection and Response (EDR) logs to detect ransomware attacks. We aim to generate realistic synthetic sequences that preserve temporal structure and inter‑feature dependencies to improve anomaly detection (benign or ransomware) on this dataset. Missions The intern will: review deep generative models for time series (with a focus on transformer‑style methods); design and implement conditional generative models (e.g., TimeGAN‑like architectures) to produce labeled multivariate sequences consistent with Owlyshield statistics; define quality metrics (distributional similarity, temporal coherence, correlation structures); evaluate the impact of synthetic data on downstream ransomware/anomaly detection performance. Profile M2 student in Computer Science, Data/AI, or Applied Mathematics. Solid background in machine learning and Python; experience with deep learning (PyTorch or TensorFlow) and time‑series data. Knowledge of generative models (GANs/VAEs) and transformers, cybersecurity is a plus. Autonomy, rigor, and good written English are expected. Practical information Duration: 4-6 months (full-time, 2026). Location: ESILV, Paris Supervision: Sourav Rai, Christophe Rodrigues and Nga Nguyen Application Send CV, cover letter, grades and recommendation letters to christophe.rodrigues@devinci.fr and nga.nguyen@devinci.fr with subject: “M2 Internship – Generative Time‑Series”. Dataset/ References [1] SitInCloud, “Ransomware Detection (Owlyshield documentation),” https://docs.sitincloud.com/concepts/ransomware-detection.html [2] J. Yoon, D. Jarrett, M. van der Schaar, “Time‑series Generative Adversarial Networks,” NeurIPS, 2019. [3] X. Li, V. Metsis, H. Wang, A. H. H. Ngu, “TTS-GAN: A Transformer-based Time-Series Generative Adversarial Network,” in Proc. 20th Int. Conf. on Artificial Intelligence in Medicine (AIME), 2022. Profil du candidat : Formation et compétences requises : Adresse d’emploi : Paris, La Défense Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : institut Fresnel Durée : 4 à 6 mois Contact : andre@fresnel.fr Date limite de publication : 2026-02-02 Contexte : Les technologies d’imagerie capables de détecter les processus biologiques précoces in vivo de manière non invasive pour des études longitudinales, avec une haute résolution, représentent un défi pour la recherche biomédicale. Le concept de notre système d’imagerie repose sur un nouveau d’imagerie optique diffuse de fluorescence multicolore pour l’imagerie in vivo du petit animal en trois dimensions (3D) dans la fenêtre NIR-II (1000-2000 nm). La tomographie optique diffuse de fluorescence consiste à injecter au sujet (ici une souris) des substances chimiques qui se fixent sur différents organes. Ces substances chimiques, appelées fluorophores, sont alors excitées par une source lumineuse puis réémettent de la lumière lors de leur relaxation, à plus faible énergie (plus longue longueur d’onde). L’objectif est de reconstruire des images à partir de ce signal de fluorescence. Le signal de fluorescence ainsi que la source d’excitation peuvent être atténués à la fois par l’absorption et la diffusion des différents milieux traversés, ce qui entraîne une distorsion des spectres mesurés. La reconstruction des images est généralement un problème mal-posé nécessitant l’utilisation d’algorithmes d’optimisation exploitant des connaissances apriori sur les volumes à reconstruire. Sujet : Le but du stage est le développement d’algorithmes de reconstruction spécifiques aux images hyper-spectrales i.e. lorsque le sujet est excité avec différentes longueurs d’onde et que le signal de fluorescence est échantillonnée à plusieurs longueurs d’onde. Les connaissances apriori sur les volumes à reconstruire seront estimées à l’aide d’algorithmes de deep learning. Profil du candidat : Le candidat recruté devra avoir être en dernière année d’école d’ingénieurs ou en Master 2 dans le domaine des mathématiques appliquées, le traitement du signal/images ou dans une formation équivalente. Il devra être particulièrement à l’aise en programmation (python/Matlab) et avoir une réelle appétence pour les interactions entre l’informatique et la physique. Formation et compétences requises : Adresse d’emploi : 52 Av. Escadrille Normandie Niemen, 13013 Marseille Document attaché : 202509290900_stage tomo hyper spectral.pdf Feb 15 Sun 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire de Génie Chimique (LGC) Durée : 6 mois Contact : rachid.ouaret@toulouse-inp.fr Date limite de publication : 2026-02-15 Contexte : Les stations d’épuration constituent aujourd’hui des infrastructures critiques pour la protection de l’environnement et la santé publique. Leur fonctionnement, en particulier pour les unités équipées de bioréacteurs à membranes (MBR), repose sur un suivi continu et de haute précision d’un ensemble de variables physico-chimiques, hydrauliques et biologiques. Ces installations génèrent désormais d’importants volumes de données temporelles provenant de capteurs multiples, d’analyses de laboratoire et de systèmes d’acquisition hétérogènes, avec des pas de temps très variés et souvent asynchrones. Dans ce contexte, l’analyse avancée des séries temporelles joue un rôle central. Les procédés biologiques présentent des dynamiques fortement non linéaires, une variabilité importante des charges polluantes et des interactions complexes entre débit, température, oxygénation, concentrations azotées et performances de filtration. Exploiter ces données brutes nécessite de relever plusieurs défis fondamentaux : bruit instrumental, dérives progressives, valeurs manquantes persistantes, phénomènes de ruptures (changepoints) liés aux perturbations hydrauliques ou opérationnelles, ainsi que des structures de dépendance non triviales à différentes échelles temporelles (minute, heure, jour, semaine). Une analyse robuste de ces séries temporelles est indispensable pour détecter précocement les dysfonctionnements, anticiper les variations de charge, optimiser l’aération (source majeur de consommation énergétique) et garantir la stabilité de la qualité des effluents rejetés. Le projet ANR JCJC FlexMIEE se positionne précisément sur ces enjeux en visant à développer une nouvelle génération d’outils de modélisation intégrée alliant procédés, statistiques avancées, modélisation probabiliste et IA explicable. Le Work Package 2 (WP2), coeur du présent stage, a pour objectif de construire un pipeline méthodologique complet permettant : (i) d’harmoniser et fusionner les données multi-sources selon différentes résolutions temporelles, (ii) de quantifier et représenter l’incertitude via des méthodes modernes (processus gaussiens, intervalles, histogrammes dynamiques), (iii) d’identifier les structures de dépendance, linéaires et non linéaires, à l’aide d’outils tels que les copules ou les corrélations conditionnelles dynamiques, (iv) de développer des modèles prédictifs de séries temporelles interprétables (LSTM explicables, modèles structurels, Transformeurs temporels), et enfin (v) de préparer un socle de données fiable pour la modélisation hybride des procédés au sein du WP3. Ainsi, ce stage s’inscrit dans une dynamique de recherche appliquée ambitieuse où la statistique avancée, la science des données et la modélisation des séries temporelles deviennent des leviers essentiels pour renforcer la performance, la robustesse et l’efficacité énergétique des systèmes de traitement des eaux usées. Le travail réalisé contribuera directement à la conception de futures « stations intelligentes », plus résilientes face aux incertitudes environnementales et opérationnelles. Objectifs du stage L’objectif est de construire un cadre méthodologique complet pour traiter, fusionner et analyser les données hétérogènes issues d’une STEP industrielle, puis développer des modèles temporels explicables permettant de comprendre l’impact des influents sur les performances énergétiques et épuratoires. Les enjeux scientifiques incluent : — harmonisation temporelle multi-échelles ; — imputation avancée (processus gaussiens, modèles d’état, MICE) ; — dépendances non linéaires via copules et corrélations dynamiques ; — modèles temporels interprétables (ARIMAX, XGBoost, LSTM explicables, TFT) ; — analyse de sensibilité globale et SHAP temporel ; — représentation symbolique des données (intervalles, distributions). Sujet : Le stage s’inscrit dans le Work Package 2 (WP2) du projet ANR FlexMIEE, consacré à la gestion avancée des données hétérogènes issues d’une station d’épuration industrielle. Le travail attendu est structuré en quatre volets complémentaires formant un pipeline méthodologique complet. Dans un premier temps, le ou la stagiaire réalisera une prise en main approfondie de l’ensemble des bases de données multi-sources (mesures en ligne, analyses de laboratoire, historiques opératoires et données biologiques). Cette étape comprendra une revue de littérature ciblée sur les notions d’incertitude dans les données temporelles, les méthodes modernes de dépendances multivariées ainsi que les approches d’explicabilité en intelligence artificielle (XAI) appliquées aux modèles de séries temporelles. L’objectif est d’acquérir rapidement une compréhension globale des caractéristiques des données et des défis méthodologiques associés. Le deuxième volet concernera l’harmonisation temporelle des données. Les jeux de données disponibles présentent des pas de temps distincts, des valeurs manquantes, des dérives instrumentales et des anomalies locales. Le stagiaire mettra en oeuvre des méthodes robustes de détection de ruptures (changepoints bayésiens, tests non paramétriques), de fusion temporelle multi-échelles et d’imputation probabiliste. Une attention particulière sera portée aux processus gaussiens, aux modèles d’état, aux approches MICE et aux autoencodeurs, avec une analyse comparative de la capacité de chaque méthode à préserver la cohérence physique et statistique des signaux. Le troisième volet portera sur l’étude des dépendances entre variables influentes (débit, DCO, NH+4 , MES, température. . .) et indicateurs de performance du procédé. Le stagiaire utilisera des outils avancés tels que les corrélations conditionnelles dynamiques et l’analyse des dépendances retardées. L’objectif est de caractériser précisément les interactions non linéaires, asymétriques ou à queue lourde qui gouvernent la variabilité des effluents et les capacités énergétiques du système. Le quatrième volet consistera à développer et comparer différents modèles de séries temporelles. Ces modèles incluront des approches statistiques (ARIMAX, modèles structurels), des algorithmes de machine learning (XGBoost, forêts aléatoires temporelles, N-BEATS) ainsi que des architectures profondes interprétables (LSTM avec mécanisme d’attention, Temporal Fusion Transformer). L’évaluation sera réalisée via validation croisée temporelle et critères de robustesse. L’interprétabilité constituera un axe fort, avec l’utilisation de SHAP temporel, de l’Analyse en Composantes Principales Fonctionnelle (FPCA) et de méthodes globales de sensibilité. Au terme du stage, le ou la stagiaire fournira un cadre méthodologique complet comprenant l’harmonisation, la modélisation, l’interprétabilité et la représentation symbolique des données, constituant une base solide pour une poursuite en thèse. Profil du candidat : Le stage est destiné à un(e) étudiant(e) de niveau Bac+5 issu(e) d’une formation en data science, statistiques, mathématiques appliquées, disciplines apparentées. Un intérêt marqué pour l’analyse statistique des données, la modélisation temporelle et les méthodes probabilistes est indispensable. 3 Une sensibilité particulière aux problématiques environnementales et aux enjeux de l’assainissement est fortement attendue. Le ou la candidate devra démontrer un goût prononcé pour l’application des méthodes statistiques à des systèmes réels, complexes et faiblement déterministes, typiques des procédés de traitement de l’eau. Les compétences suivantes sont recherchées : — Solides bases en analyse statistique, traitement des données et séries temporelles. — Connaissances appréciées en IA explicable (SHAP, XAI), modèles probabilistes, copules ou traitement du signal. — Excellente maîtrise de Python, Julia et/ou R. — Autonomie scientifique, rigueur dans l’analyse, capacité à documenter et présenter les résultats. — Intérêt fort pour la recherche appliquée et les enjeux environnementaux. Formation et compétences requises : Le stage est destiné à un(e) étudiant(e) de niveau Bac+5 issu(e) d’une formation en data science, statistiques, mathématiques appliquées, disciplines apparentées. Un intérêt marqué pour l’analyse statistique des données, la modélisation temporelle et les méthodes probabilistes est indispensable. 3 Une sensibilité particulière aux problématiques environnementales et aux enjeux de l’assainissement est fortement attendue. Le ou la candidate devra démontrer un goût prononcé pour l’application des méthodes statistiques à des systèmes réels, complexes et faiblement déterministes, typiques des procédés de traitement de l’eau. Les compétences suivantes sont recherchées : — Solides bases en analyse statistique, traitement des données et séries temporelles. — Connaissances appréciées en IA explicable (SHAP, XAI), modèles probabilistes, copules ou traitement du signal. — Excellente maîtrise de Python, Julia et/ou R. — Autonomie scientifique, rigueur dans l’analyse, capacité à documenter et présenter les résultats. — Intérêt fort pour la recherche appliquée et les enjeux environnementaux. Adresse d’emploi : Laboratoire de Génie Chimique – LGC Labège, 4 Allée Emile Monso CAMPUS INP – ENSIACET, 31400 Toulouse Document attaché : 202512031402_Demande_Stage_ANR_FlexMIEE_WP2_fr.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LISIC Durée : 6 mois Contact : matthieu.puigt@univ-littoral.fr Date limite de publication : 2026-02-15 Contexte : Ce stage s’inscrit dans le cadre du projet ANR BLeRIOT. Les avions civils et étatiques sont équipés de deux enregistreurs de vol (aussi connus sous le nom de « boîtes noires »), c.-à-d. le Cockpit Voice Recorder (CVR) et le Flight Data Recorder. En cas d’incident ou d’accident, tous deux doivent être retrouvés et analysés par les autorités compétentes. Le service audio du BEA (Bureau d’Enquêtes et d’Analyses pour la sécurité de l’aviation civile) et RESEDA sont les autorités françaises en charge des analyses des CVR des avions respectivement civils et étatiques. Les CVR sont des équipements renforcés protégeant une information importante pour la détermination des facteurs contributifs à la survenue d’un accident ou d’un incident aérien. Pour cette raison la qualité audio des enregistrements, l’audibilité des alarmes du cockpit et l’intelligibilité des échanges vocaux sont cruciales pour les enquêteurs du BEA et RESEDA. Les contenus des CVR sont alors transcrits par des enquêteurs spécialisés (analystes audio) pour les bénéfices de l’enquête de sécurité. Les limitations de conception des CVR contraignent les constructeurs d’avion à mélanger les sources sonores audibles dans le cockpit et dans les casques des pilotes (émissions et réceptions radio, échanges sur l’intercom, annonces aux passagers, alarmes sonores, etc) en un nombre réduit de canaux audio envoyés vers le CVR, qui en fait une acquisition numérique et protège cette donnée en cas d’accident. Ainsi l’activation simultanée de plusieurs sources sonores peut conduire à une réduction significative de l’intelligibilité des échanges vocaux, voire un masquage complet d’une ou de plusieurs sources audio. L’extraction d’informations dans les données CVR s’appuie sur l’expérience des analystes audio du BEA/RESEDA et sur leur capacité à détecter des sources sonores enfouies dans des mélanges audio difficiles. Dans nos récents travaux, nous avons proposé un modèle de mélange audio dans les CVR par rétro-ingénierie et nous avons montré que les méthodes de la littérature de séparation de sources (SAS) pouvaient être appliquées. La SAS cherche à estimer un ensemble de signaux inconnus à partir de mélanges de ceux-ci, le mélange étant lui-aussi inconnu. Sujet : Dans le cadre du projet ANR BLeRIOT qui finance ce sujet de stage, nous ne souhaitons pas développer des méthodes d’apprentissage profond nécessitant une grande base d’apprentissage. Au contraire, les contraintes des enquêtes de sécurité nous poussent à développer des approches qui soient non ou faiblement supervisées et qui soient interprétables. Les méthodes de factorisation matricielle non-négative (NMF) ont constitué l’état de l’art avant l’apparition du deep learning au début des années 2010, et remplissent les deux critères ci-dessus. Cependant, elles ne fournissent pas toujours de bonnes performances de séparation lorsqu’on les applique à des signaux CVR. Le principe des techniques déroulées ou dépliées permet de transformer des approches classiques itératives en méthodes d’apprentissage profond et permettent un bon compromis entre performance, interprétabilité du modèle et taille de la base d’apprentissage. Ces techniques ont été combinées à la NMF pour un certain nombre d’applications, avec des spécificités propres aux méthodes proposées. Dans le cadre de ce stage, nous proposerons des méthodes de NMF dépliées que nous appliquerons aux données issues de CVR. En particulier, nous avons identifié des cas où le modèle proposé dans n’est plus valide, soit à cause d’effets de saturation des canaux audio dûs au système audio avionique, soit à cause d’effets de codage avec perte dûs à un modèle de CVR particulier. Ces différents effets ont pu être étudiés séparément dans la littérature – par exemple pour le déclippage audio ou pour les effets de codage sur la qualité de séparation – mais jamais à notre connaissance conjointement ni pour les signaux CVR. Un point important du stage consistera à comparer les performances de méthodes classiques ou dépliées de NMF pour de tels scénarios. Profil du candidat : Etudiant en sciences de données (traitement du signal et des images, informatique avec un focus autour de l’intelligence artificielle / apprentissage automatique, mathématiques appliquées), vous êtes curieux et très à l’aise en programmation (Matlab et/ou Python). Vous lisez et parlez l’anglais courant sans difficulté. Vous êtes capable d’expliquer clairement vos travaux, même à des publics non-experts. Bien que non requis, une première expérience en factorisation matricielle (par exemple, en décomposition matricielle ou tensorielle, en séparation de sources, en apprentissage de dictionnaire) sera appréciée. Les candidats doivent impérativement être de nationalité française ou citoyens d’un état membre de l’Union Européenne, d’un état faisant parti de l’Espace Economique Européen ou de la Confédération Suisse. Formation et compétences requises : Sciences de données (traitement du signal et des images, informatique avec un focus autour de l’intelligence artificielle / apprentissage automatique, mathématiques appliquées) Adresse d’emploi : LISIC, antenne de Longuenesse, Campus de la Malassise, 62219 Longuenesse, France Document attaché : 202512031320_Stage_ANR_BLeRIOT_2026.pdf Feb 28 Sat 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIMOS Durée : 5 mois Contact : julien.ah-pine@sigma-clermont.fr Date limite de publication : 2026-02-28 Contexte : The internship is part of the DLISCES project (Deep Learning Images Satellites et Cartographie d’Indicateurs Économiques et Sociaux), supported by the International Research Center “Natural Disasters and Sustainable Development” (CIR4) of the ISite CAP 2025 in Clermont-Ferrand. The project falls under the “AI for Good” domain and conducts exploratory research aimed at providing maps of various indicators to more robustly assess the vulnerability of populations and territories exposed to climatic hazards (floods, landslides, cyclones, earthquakes, etc.). DLISCES is an interdisciplinary project involving researchers in artificial intelligence, economics, management, and mathematics. The selected candidate will join the LIMOS (Laboratoire d’Informatique, de Modélisation et d’Optimisation des Systèmes) and work closely with AI researchers and economists from CERDI (Centre d’études et de recherches sur le développement international). He or she will focus on leveraging state-of-the-art deep learning models and satellite images to evaluate the impact of natural disasters. Sujet : This internship aims to develop and apply deep learning (DL) models and resources for satellite images analysis in the goal of predicting natural disaster impacts. On one hand, the EM-DAT database contains data on the occurrence and impacts of over 27,000 mass disasters worldwide from 1900 to the present day. On the other hand, computer vision techniques utilizing DL enable efficient analysis of Earth Observation data acquired through remote sensing technologies. The goal of the internship is twofold : 1. Collect satellite images related to natural disaster events recorded in the EM-DAT database with geolocation provided by Geo-Disasters, from open-access platforms such as Copernicus and Google Earth Engine (GEE). 2. Study, apply, and fine-tune pre-trained DL models (foundation models for Earth Observation) to represent remote sensing information, aiming to predict natural disaster impacts as recorded in the EM-DAT database. Particular attention will be paid to floods and the related dataset FLODIS, based on EM-DAT. This internship provides a valuable opportunity to work on impactful projects in the field of natural disaster risk management while gaining practical experience in deep learning and satellite image analysis. The opportunity to continue this work with a PhD project is currently under review. Profil du candidat : Current master student or recent graduate in Computer Science, AI, Data Science, Computer Vision, or in Social Science with a strong background in Data Science. Experience using deep learning models in computer vision. High Interest in inter-disciplinary research works. Attention to details and rigor in handling large datasets and in programming. Strong communication skills and ability to work in a team. Knowledge of satellite imagery and geospatial data would be a plus. Formation et compétences requises : Adresse d’emploi : LIMOS, Aubières (Clermont-Ferrand) Document attaché : 202512151511_Offre de Stage DLISCES – 2526.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIRIS Durée : 5-6 mois Contact : stefan.duffner@insa-lyon.fr Date limite de publication : 2026-02-28 Contexte : The deployment of deep neural networks on edge devices such as smartphones or embedded systems poses significant challenges in terms of computational cost, energy consumption, and latency. Traditional models process all inputs with the same fixed architecture, regardless of their complexity, leading to inefficient use of resources. For instance, a clear image of a cat is processed with the same depth and width as a noisy, ambiguous scene, despite requiring far less computation. To address this, recent research has explored dynamic neural networks, which adapt their computation based on input content. Two prominent strategies include: • Mixture of Experts (MoE): activating only a subset of network parameters (e.g., specific convolutional branches) per input, enabling width adaptation. • Early Exits: allowing simpler inputs to exit the network at intermediate layers, reducing inference depth. While these approaches have been studied independently—MoE primarily in Transformers and early exits in CNNs—their combination remains underexplored, especially in convolutional architectures. Jointly leveraging both mechanisms could enable dual adaptation in width and depth, significantly improving efficiency without sacrificing accuracy. This internship aims to design, implement, and evaluate a dynamic CNN architecture that integrates Mixture of Experts blocks with confidence-based early exits, enabling input-adaptive inference for vision tasks such as image classification. The work will contribute to the growing field of efficient and sustainable AI, with potential applications in mobile vision and real-time systems. Sujet : The main goal is to design and validate a hybrid dynamic CNN that couples conditional activation (Mixture-of-Experts) with adaptive depth (early-exit). To reach this goal, the intern will first carry out a bibliographic survey on dynamic inference, covering MoE in CNNs, early-exit networks such as BranchyNet, and recent attempts at joint width-and-depth adaptation; key training difficulties—load balancing, confidence estimation, stability—will be identified. Next, a full architecture will be proposed: convolutional MoE blocks whose top-k gating network selects the most relevant experts for each input, and auxiliary classifiers inserted at several depths that can terminate inference as soon as a confidence threshold is exceeded; a single decision rule will be learnt that decides, at every stage, whether to route or to exit. The model will then be implemented in PyTorch on standard backbones (ResNet or VGG variants) and trained on CIFAR-10/100 or Tiny-ImageNet; knowledge distillation and load-balancing losses will be used to stabilise MoE training, while a cost-aware term will encourage both sparse expert selection and early termination. Finally, the system will be evaluated in terms of accuracy, average inference depth, FLOPs and latency and compared against strong baselines (standard CNN, BranchyNet, MoE-CNN without exits); a detailed analysis will correlate input difficulty with the chosen experts and the actual exit layer. If time permits, the intern will explore ultra-lightweight gating for on-device deployment and validate the approach on a mobile-oriented use-case. Profil du candidat : Required technical skills: • Python, PyTorch • Deep learning (CNNs, optimization) • Familiarity with vision datasets and evaluation metrics • (Preferred) Experience with model compression or dynamic networks Formation et compétences requises : M2 in computer science or applied mathematics Adresse d’emploi : INSA Lyon, Campus de la Doua, Villeurbanne Document attaché : 202512181058_dynamic_cnn_internship.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LabiISEN – ISEN Ouest Durée : 4 à 6 mois Contact : thibault.napoleon@isen-ouest.yncrea.fr Date limite de publication : 2026-02-28 Contexte : Sujet : Dans le cadre de travaux avec Thales Underwater System (UWS), nous cherchons à évaluer la pertinence des prétraitements dans les techniques de vision par ordinateur en milieu sous-marin. En effet, il est d’usage de prétraiter les images issues du capteur (photo ou vidéo) afin de compenser les distorsions colorimétriques induites par le milieu aquatique ainsi que les phénomènes de brumes sous-marines induits par la turbidité. Cependant, ces approches s’appuient depuis quelques années sur des techniques utilisant des réseaux de neurones (souvent convolutifs) dont les architectures sont proches de celles utilisées pour les tâches de vision par ordinateur qui suivent ces prétraitements. Ainsi, cette étude vise à mieux comprendre les avantages et les inconvénients d’enchainer les étapes prétraitement (c.-à-d. approche dissociée) et traitements par vision (classification, détection ou segmentation par exemple) plutôt que de les combiner dans un même réseau de neurones (c.-à-d. approche combinée). Le but de ce stage est de comparer ces deux approches, dissociée et combinée, dans un cadre unifié où plusieurs méthodes de prétraitements et plusieurs tâches de vision seront étudiées. Le but étant de montrer les avantages et les inconvénients des deux approches. Ainsi, il pourrait être possible de proposer une méthode combinant les avantages de chacune. L’une des pistes envisagées est une approche multi-objectifs dans un réseau de segmentation sémantique. Dans ce cadre, l’un des objectifs serait le débrumage d’image tandis qu’un autre serait la segmentation sémantique des images. Avec cette approche, la capacité d’apprendre à prétraiter les images en même temps qu’en extraire les informations pertinentes, pour plus de robustesse, pourrait apparaitre dans un unique réseau de neurones. Le stage s’articulera autour des points suivants : • Sélection des bases de données nécessaires à l’étude comparative. • Sélection des méthodes de prétraitements utilisées en vision sous-marine. • Sélection des méthodes de vision par ordinateur adaptées aux tâches de vision sous-marines. • Étude comparative des approches dissociées et combinées. Profil du candidat : Le candidat doit avoir : • suivi un cursus de Master ou d’Ingénieur dans un des domaines suivants : vision par ordinateur, science des données, informatique ; • de solides compétences en algorithmique et en programmation ; • des connaissances en vision par ordinateur ; • des connaissances en intelligence artificielle. Pour candidater, le candidat doit fournir : • un CV détaillé ; • les relevées de notes des deux dernières années. Merci de candidater sur https://isen.softy.pro/offers/186565 ou en envoyant un mail à thibault.napoleon@isen-ouest.yncrea.fr (objet : [Stage EPIC]). Formation et compétences requises : Adresse d’emploi : ISEN Ouest, site de Brest – 20 rue Cuirassé Bretagne, 29200 Brest Document attaché : 202601070932_Sujet.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Institut UTINAM, UMR 6213 CNRS / UMLP Durée : 4 à 5 mois Contact : jose.lages@univ-fcomte.fr Date limite de publication : 2026-02-28 Contexte : Sujet : Depuis toujours, les échanges de ressources, de biens et de services structurent les sociétés humaines, révélant inégalités, hiérarchies et formes d’organisation collective. À l’ère numérique, de nouvelles formes de valeur émergent, portées notamment par les technologies blockchain, qui renouvellent nos conceptions de l’échange, de la souveraineté économique et de la territorialité. Ces systèmes d’échange peuvent être étudiés comme des systèmes complexes, caractérisés par des topologies non triviales, l’émergence de comportements collectifs, ainsi que des dynamiques de coopération et de compétition. Les transactions numériques sont enregistrées dans une blockchain, un registre distribué reposant sur des mécanismes cryptographiques assurant l’intégrité et la traçabilité des échanges. L’extraction de ces données permet de reconstruire le réseau d’échanges entre acteurs et d’en analyser la structure. Dans ce projet, nous nous intéressons à un cas d’étude spécifique : la monnaie complémentaire citoyenne PIVE (Jura) et sa version numérique. Le ou la stagiaire aura pour mission, dans un premier temps, d’extraire les données issues de la blockchain associée, puis d’utiliser des outils issus de la physique statistique et de la théorie des graphes afin de caractériser le graphe de transactions sous-jacent. L’objectif est notamment d’identifier des structures centrales ou périphériques, ainsi que d’éventuelles zones de faible connectivité, afin d’apporter des éléments d’analyse sur la santé macroéconomique et territoriale du réseau PIVE. Le ou la stagiaire travaillera au sein de l’équipe de physique théorique de l’Institut UTINAM, UMR 6213 CNRS / Univ. Marie et Louis Pasteur (Besançon) et collaborera avec une équipe de recherche en économie du CRESE, Univ. Marie et Louis Pasteur. Profil du candidat : Environnement technique – Programmation en Python – Packages recommandés : PySpark, pandas, NumPy, NetworkX Profil recherché • Étudiant·e en Master 2 (physique ou informatique), intéressé·e par la data science. Bon niveau en programmation Python • Des connaissances en blockchain et cryptomonnaies constituent un plus, mais ne sont pas indispensables Formation et compétences requises : Étudiant·e en Master 2 (physique ou informatique) Adresse d’emploi : Institut UTINAM, UMR 6213 CNRS / Univ. Marie et Louis Pasteur (Besançon) Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIFO Durée : 3-4 mois Contact : etienne.lehembre@unicaen.fr Date limite de publication : 2026-02-28 Contexte : Le stage se déroule dans le cadre du projet Junon au sein du LIFO (Laboratoire d’Informatique Fondamentale d’Orléans) avec le BRGM (Bureau de Recherches Géologiques et Minières). Le projet Junon a pour but de mettre en place des modèles de Machine Learning afin de prédire le niveau d’eau futur de la nappe phréatique de la Beauce. Pour entraîner ces modèles, le BRGM a fourni au projet 12 séries temporelles correspondant à 12 historiques des mesures d’eau de piézomètre (puits servant à mesurer le niveau de la nappe phréatique). Sujet : Afin de pouvoir complexifier les modèles, il est nécessaire d’obtenir davantage de données. Seulement, les séries temporelles des piézomètres sont souvent incomplète, car les relevés journaliers ne sont pas toujours possibles. Ainsi, le stage a pour but d’extraire les séries temporelles d’autres piézomètres, de compléter ces séries temporelles en essayant différents algorithmes d’interpolation, et de compléter ces données avec des données météorologiques issues de SAFRAN. Profil du candidat : Ce stage s’adresse aux étudiants en BUT3, M1 ou équivalent. Une expertise en Python (avec les librairies Pandas ou NumPy) est indispensable. Formation et compétences requises : Ce stage s’adresse aux étudiants en BUT3, M1 ou équivalent. Une expertise en Python (avec les librairies Pandas ou NumPy) est indispensable. Adresse d’emploi : LIFO, 6 Rue Léonard de Vinci, 45067 Orléans Document attaché : 202512181055_offre-stage-Junon-Data-mining.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIAS Durée : 6 mois Contact : baron@ensma.fr Date limite de publication : 2026-02-28 Contexte : L’étude du patrimoine repose sur des données hétérogènes provenant de sources multiples (mesures, croquis, photographies, acquisitions 3D, etc.), souvent difficiles à manipuler en raison de la fragilité ou de l’inaccessibilité des objets. Le projet ANR DIGITALIS vise à développer des outils numériques dédiés à la gestion, à la pérennisation, à la réutilisation et à la visualisation de ces données. Le laboratoire LIAS, partenaire du projet ANR, travaille sur la conception de méthodes et de structures pour gérer des données complexes de manière interopérable. Dans le cadre du projet ANR DIGITALIS, cette expertise est utilisée pour proposer un modèle de données dédié au patrimoine, permettant aux experts de partager et d’enrichir leurs annotations sur des objets patrimoniaux. Ce besoin s’inscrit dans la continuité de travaux existants, comme le modèle sémantique CIDOC CRM, qui vise à assurer la traçabilité et l’annotation des objets numériques dans le domaine historique. Le principal enjeu est d’automatiser l’extraction des données vers ce modèle, une tâche complexe et chronophage, d’autant plus que les historiens maîtrisent peu ce formalisme et que les informaticiens ne sont pas spécialistes du patrimoine. Le laboratoire LIAS a obtenu des résultats en explorant l’usage de l’IA générative pour transformer des données textuelles issues de fouilles archéologiques en représentations conformes au modèle CIDOC CRM. Sujet : Les objectifs du stage sont multiples à vise à compléter les travaux obtenus. Le premier objectif porte sur le compromis entre précision, performance et impact environnemental, ainsi que sur les enjeux de vie privée liés aux déploiements cloud ou locaux. Le stagiaire devra donc reprendre les résultats existants et les évaluer sur différents modèles d’IA générative, qu’ils soient hébergés dans le cloud ou exécutés localement via des modèles à poids ouverts de plus petite taille. Cela permettra au stagiaire de se familiariser avec les concepts de base de l’IA générative et des travaux développés par le laboratoire LIAS dans ce domaine. Le deuxième objectif porte sur la capacité à référencer les sources (mesures, croquis, photographies, acquisitions 3D, etc.) utilisées pour produire les annotations. Cette question, non traitée dans nos travaux initiaux, est pourtant essentielle pour assurer la traçabilité des anno- tations. Le stagiaire devra ainsi explorer des solutions permettant d’intégrer explicitement la notion de source dans le processus de génération des annotations. Cela permettra au stagiaire de se familiariser avec le modèle CIDOC CRM. Le troisième objectif, qui constitue la contribution principale de ce stage, porte sur l’intégration de vocabulaires contrôlés, tels que des thésaurus, dans le processus de génération des annotations. Cette intégration vise à améliorer la cohérence et la qualité des annotations, notamment en facilitant la gestion des synonymes (par exemple : église <=> lieu de culte). Ce stage recherche sera encadré par un doctorant travaillant sur des problématiques similaires, ainsi que deux chercheurs du laboratoire LIAS spécialisés dans le domaine de l’IA générative et du patrimoine. Une publication scientifique serait attendue à l’issue du stage, en fonction des résultats obtenus. Profil du candidat : Le candidat doit être en Master 2 en Informatique ou en dernière année de préparation d’un diplôme d’ingénieur spécialité Informatique. Formation et compétences requises : Une bonne connaissance du langage de programmation Python et des bibliothèques usuelles d’apprentissage automatique est requise. Adresse d’emploi : Le stage se déroulera dans les locaux du LIAS sur le site du Futuroscope. Document attaché : 202601050906_Sujet_Stage_DigitalisAli_2026.pdf Offre en lien avec l’Action/le Réseau : HELP/– — – Laboratoire/Entreprise : Laboratoire d’Intelligence Artificielle et Sémant Durée : 4 à 5 mois Contact : t.mecharnia@iut.univ-paris8.fr Date limite de publication : 2026-02-28 Contexte : Sujet : Ce stage s’inscrit dans des travaux de recherche à l’interface entre intelligence artificielle symbolique, apprentissage automatique et ingénierie des connaissances. Il portera notamment sur l’exploitation de LLM pour la génération, l’alignement et la validation de connaissances ontologiques. Une description détaillée du sujet, des objectifs scientifiques et du contexte de recherche est disponible dans le document joint. Profil du candidat : Formation et compétences requises : Adresse d’emploi : Équipe EID du LIASD, IUT de Montreuil, 140 Rue de la Nouvelle France, 93100 Montreuil, France Document attaché : 202601071430_Annonce_Stage_M2.pdf
|