
MaDICS est un Groupement de Recherche (GDR) du CNRS créé en 2015. Il propose un écosystème pour promouvoir et animer des activités de recherche interdisciplinaires en Sciences des Données. Il est un forum d’échanges et d’accompagnement pour les acteurs scientifiques et non-scientifiques (industriels, médiatiques, culturels,…) confrontés aux problèmes du Big Data et des Sciences des données.
Pour en savoir plus…
Les activités de MaDICS sont structurées à travers des Actions et Ateliers. Les Actions rassemblent les acteurs d’une thématique précise pendant une durée limitée (entre deux et quatre ans). La création d’une Action est précédée par un ou plusieurs Ateliers qui permettent de consolider les thématiques et les objectifs de l’action à venir.
Le site de MaDICS propose plusieurs outils de support et de communication ouverts à la communauté concernée par les Sciences des Données:
- Manifestations MaDICS : Le GDR MaDICS labellise des Manifestations comme des conférences, workshops ou écoles d’été. Toute demande de labellisation est évaluée par le Comité de Direction du GDR. Une labellisation rend possible un soutien financier pour les jeunes chercheuses et chercheurs. Une labellisation peut aussi être accompagnée d’une demande de soutien financier pour des missions d’intervenants ou de participants à la manifestation.
Pour en savoir plus… - Réseaux MaDICS : pour mieux cibler les activités d’animation de la recherche liées à la formation et à l’innovation, le GDR MaDICS a mis en place un Réseau Formation destiné à divers publics (jeunes chercheurs, formation continue,…), un Réseau Innovation pour faciliter et intensifier la diffusion des recherches en Big Data, Sciences des Données aux acteurs industriels et un Club de Partenaires qui soutiennent et participent aux activités du GDR.
Pour en savoir plus… - Espace des Doctorants : Les doctorants et les jeunes chercheurs représentent un moteur essentiel de la recherche et le GDR propose des aides à la mobilité et pour la participation à des manifestations MaDICS.
Pour en savoir plus… - Outils de communication : Le site MaDICS permet de diffuser des informations diverses (évènements, offres d’emplois, proposition de thèses, …) liées aux thématiques de recherche du GDR. Ces informations sont envoyées à tous les abonnés de la liste de diffusion MaDICS et publiés dans un Calendrier public (évènements) et une page d’offres d’emplois.
Adhésion au GDR MaDICS : L’adhésion au GDR MaDICS est gratuite pour les membres des laboratoires ou des établissements de recherche publics. Les autres personnes peuvent adhérer au nom de l’entreprise ou à titre individuel en payant une cotisation annuelle.
Pour en savoir plus…
Manifestations à venir
Journées Ecoles Conférences et Séminaires
Actions, Ateliers et Groupes de Travail :
DAE DatAstro DSChem EXMIA GeoKIF HELP Musiscale RECAST SaD-2HN SIMDAC SimpleText TIDS
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : SAMOVAR, Télécom SudParis, IP Paris
Durée : 6 Months
Contact : luca.benedetto@telecom-sudparis.eu
Date limite de publication : 2026-01-10
Contexte :
Sujet :
This project proposes developing an NLP framework to automatically evaluate the adequacy and relevance of assessment items in relation to their associated learning content. While existing research in Question Difficulty Estimation from Text (QDET) has focused primarily on analyzing exam items in isolation, this work addresses a critical gap by evaluating questions within the context of course lectures and learning paths. The framework will employ a combination of traditional machine learning, Information Retrieval techniques, semantic embeddings, and Large Language Models to assess newly created exam questions for validity, relevance, and difficulty.
Profil du candidat :
Previous experience with Python and Machine Learning is required.
Formation et compétences requises :
Adresse d’emploi :
19 place Marguerite Perey, 91120 Palaiseau France
ou
9 rue Charles Fourier, 91011 Evry-Courcouronnes France
Document attaché : 202512031306_2025_11___Proposal_Stage_M2.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : GREYC / ORION SportTech
Durée : 4 à 6 mois
Contact : francois.rioult@unicaen.fr
Date limite de publication : 2026-01-10
Contexte :
ORION SporTech développe des solutions logicielles basées sur la vidéo et l’intelligence artificielle pour le monde du sport. Au-delà de la performance, ORION SporTech conçoit des solutions pour la Fan Expérience : nos logiciels enrichissent les vidéos avec des effets visuels dynamiques et des contenus interactifs destinés à engager les supporters et valoriser les partenaires.
ORION SporTech est incubée chez Normandie Incubation, au cœur de
l’écosystème startup normand.
Le stage est co-encadré par le laboratoire GREYC – Unicaen – Ensicaen – CNRS.
Sujet :
Le stage concerne la détection automatique des coups portés dans des vidéos de combats, captées via flux broadcast monoculaire (caméra unique, plan fixe ou mobile). L’objectif est de développer un pipeline de vision par ordinateur capable de :
– Détecter les coups portés
– Identifier la latéralité
– Estimer l’impact
Le candidat pourrait montrer des dispositions à maîtriser les techniques
d’estimation de pose et de classification de séquences.
Profil du candidat :
– Formation en informatique, vision par ordinateur, IA ou traitement d’image
– Connaissances en deep learning appliqué à la vidéo
– Intérêt pour le sport, idéalement les sports de combat
– Autonomie, rigueur, esprit de recherche
Formation et compétences requises :
M2 / ingénieur informatique IA – Data – Computer vision
Adresse d’emploi :
17 rue Claude Bloch à Caen
Offre en lien avec l’Action/le Réseau : – — –/Doctorants
Laboratoire/Entreprise : BaaS.sh en collaboration avec l’IRIT (Toulouse)
Durée : 5 à 6 mois
Contact : mokadem@irit.fr
Date limite de publication : 2026-01-11
Contexte :
BaaS.sh est une startup deeptech qui conçoit une blockchain de nouvelle génération : rapide à déployer, simple à utiliser → pensée pour les devs, optimisée pour la perf.
Sujet :
Rejoins BaaS.sh, en collaboration avec le IRIT, pour contribuer à la mise en place et à l’optimisation de notre infrastructure blockchain. Tu travailleras sur des sujets concrets, techniques et à fort impact :
● Déployer, superviser et automatiser des architectures complexes.
● Concevoir des pipelines robustes (CI/CD, provisioning, monitoring, logging).
● Mener des analyses comparatives de blockchains concurrentes.
● Side projects : serveur MPC, module n8n, plugin VSCode…
Un stage exigeant, encadré, au coeur d’un projet deeptech ambitieux.
Tu évolueras dans un environnement stimulant, entre infrastructure, performance, et blockchain de nouvelle génération.
Si compétences exceptionnelles :
tu pourras également contribuer à des sujets plus avancés : orchestration distribuée, sécurité réseau, scaling dynamique.
Profil du candidat :
Master 2
Formation et compétences requises :
Expérience concrète avec Docker Swarm ou Kubernetes.
CI/CD, base d’un delivery efficace et fiable.
Bonnes notions en observabilité (Grafana, Prometheus…) et en gestion de logs.
Docker, Git et les outils d’automatisation n’ont pas de secrets pour toi.
Adresse d’emploi :
Lieu : 100 % remote, avec interactions virtuelles régulières.
Durée : 5 à 6 mois, début flexible à partir de janvier 2026.
Encadrement : par le CTO de BaaS.sh en collaboration avec un enseignant-chercheur du IRIT.
Document attaché : 202512051336_Stage M2 Recherche chez BaaS.sh.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Laboratoire Loria Nancy / Centralesupélec Metz
Durée : 4-6 mois
Contact : arthur.hoarau@centralesupelec.fr
Date limite de publication : 2026-01-11
Contexte :
Détecter des anomalies ou incohérences locales dans des images grâce à la quantification d’incertitude en apprentissage automatique profond.
Sujet :
En Apprentissage Automatique appliqué à la vision par ordinateur, les cartes de chaleur (heatmaps) sont des outils de visualisation interprétable permettant de comprendre quelles régions d’une image contribuent le plus à la prédiction d’un modèle. Les méthodes les plus répandues, comme Grad-CAM [1], exploitent les gradients des activations internes d’un réseau convolutif pour générer une carte d’importance pondérée.
L’objectif de ce projet est d’obtenir une carte de chaleur des incohérences locales ou anomalies dans une image pour une tâche de classification (e.g., un chat avec des lunettes, un O.V.N.I ou encore une contamination ou impureté sur un aliment) grâce à la quantification d’incertitude du modèle. Quatre grandes familles de méthodes existent dans la littérature pour extraire ces incertitudes : les méthodes bayésiennes, qui modélisent par nature ces différents types d’incertitude [3] ; les méthodes ensemblistes, qui approximent une distribution de probabilités grâce à la variance prédictive des estimateurs [4] ; la minimisation de risque de second ordre, qui modèle l’incertitude du modèle directement dans la fonction de perte ; et les méthodes par densité locale qui s’intéressent au voisinage de l’instance de test.
L’étude pourra en partie s’appuyer sur les récents travaux de [2], qui proposent une méthode pour quantifier l’incertitude liée à l’importance de chaque pixel dans une image.
Voic le document ci-joint pour plus de détails.
[1] R. Selvaraju et. al. Grad-CAM : Visual Explanations from Deep Networks via Gradient-based Localization. IEEE International Conference on Computer Vision (ICCV), 2017.
[2] K. Wickstrom et. al. REPEAT : Improving Uncertainty Estimation in Representation Learning Explainability. Proceedings of the AAAI Conference on Artificial Intelligence, 2025.
[3] A. Kendall et. al. What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision ?. Advances in Neural Information Processing Systems, 2017.
[4] B. Lakshminarayanan et. al. Simple and Scalable Predictive Uncertainty Estimation using Deep Ensembles. Advances in Neural Information Processing Systems, 2017.
Profil du candidat :
– Master 2, préparez une copie de vos notes
– Bon niveau d’anglais
– Appétence pour l’apprentissage automatique
Formation et compétences requises :
– Programmation Python, Machine Learning
– Apprentissage Profond
– Rédaction, Vulgarisation
Adresse d’emploi :
Centralesupélec Metz ou Loria Nancy
Document attaché : 202512051126_sujet_stage.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Laboratoire d’Informatique, Signal et Image de la
Durée : 6 mois
Contact : claire.guilloteau@univ-littoral.fr
Date limite de publication : 2026-01-11
Contexte :
Sujet :
Description du sujet :
Le ver de Roscoff (Symsagittifera roscoffensis) est un petit organisme marin vivant en photosymbiose avec une microalgue verte (Tetraselmis convolutae), ce qui en fait à la fois un modèle d’étude de la symbiose et un bioindicateur de l’état des écosystèmes côtiers [1]. Actuellement, la détection et le suivi des vers de Roscoff reposent sur l’observation directe. L’identification et le suivi de cette espèce à distance restent un défi scientifique et technologique. Le développement de méthodes automatiques d’identification et de suivi permettrait d’évaluer les facteurs environnementaux influençant leur présence et leur répartition ou encore leur dynamique au cours d’un cycle de marée ou lors d’événements météorologiques extrêmes. Ces avancées contribueraient également à mieux comprendre le rôle écologique du ver de Roscoff, qui participe aux flux de matière organique, favorise la capture de CO2 par ses algues symbiotiques et contribue à la production d’O2 dans les zones littorales.
Les approches d’imagerie spectrale permettent de caractériser la signature optique d’organismes ou d’habitats, ouvrant la voie à leur télédétection [2]. Dans ce stage, le ver de Roscoff constitue donc un cas d’étude idéal pour développer des méthodes de détection multi-échelle et de traitement de données hyperspectrales.
Ce projet de stage cherche à répondre à deux verrous scientifiques principaux :
* L’échelle d’observation. La détection en champ proche et contrôlé est faisable en laboratoire, mais la généralisation aux échelles aéroportées et satellitaires reste à confirmer, notamment pour des raisons de résolution spatiale [3].
* La complétion informée des données multi-sources. La complétion informée est le fait de combiner intelligemment des données fines mais locales (airborne) avec des données grossières mais globales (satellite) pour reconstituer une information complète et cohérente. Cette tâche constitue un défi méthodologique.
L’objectif est de développer une approche multi-échelle de détection spectrale des vers de Roscoff. Le projet s’articule autour des 3 étapes suivantes :
1. Identifier les bandes spectrales pertinentes pour la détection des vers de Roscoff en champ proche (laboratoire) et en milieu contrôlé. Cette étape permettra la sélection méticuleuse des instruments satellitaires et aéroportés à utiliser pour cette étude.
2. Développer et tester des méthodes de complétion de données informée afin d’associer les images à différentes résolutions (aéroporté, satellite).
3. Évaluer la faisabilité de la détection automatique à large échelle des vers de Roscoff dans des environnements côtiers, et l’identification des sites candidats pour des futures campagnes in situ ou par survol aérien.
Le but du projet est de développer un outil capable de produire des cartes exploratoires de présence potentielle des vers de Roscoff à partir de données satellitaires et aéroportées afin de contribuer à la mise en place d’un outil de suivi innovant de la biodiversité du littoral. D’un point de vue méthodologique, le projet comporte une part expérimentale mobilisée dans les différentes étapes du projet. Une première phase exploratoire en laboratoire aura pour but d’acquérir des images hyperspectrales des vers de Roscoff en milieu contrôlé. Une seconde phase expérimentale consistera à acquérir des images aéroportées sur des sites déjà identifiés par les chercheurs du laboratoire UGSF pour tester la capacité de détection en milieu
naturel à une échelle intermédiaire. La majorité du projet concerne le développement d’algorithmes de complétion de données informée à l’aide d’approches de type apprentissage automatique/machine learning. De nombreuses méthodes de complétion de données informée existent dans la littérature. Elles sont cependant développées à partir de cas idéaux ou simulées. Par conséquent, peu répondent aux contraintes de notre problème : potentiel mauvais alignement des images entre elles, connaissance limitée des spécifications instrumentales, pas de données annotées ou « vérité-terrain » disponible, représentativité limitée des données aéroportées, non-linéarité des mélanges spectraux.
Cette thématique fait l’objet d’une demande en cours de financement de thèse pour l’automne 2026. Le cas échéant, le ou la candidate pourra poursuivre ce travail pour la préparation d’une thèse.
Encadement :
Le stage aura lieu dans l’antenne de Longuenesse(62) du LISIC, dédiée actuellement à l’imagerie hyperspectrale. Cette antenne, créée en 2020, compte actuellement 8 chercheurs permanents, 3 chercheurs postdoctorants et 7 doctorants. Le ou la stagiaire sera encadré(e) par Claire GUILLOTEAU et Gilles ROUSSEL qui apporteront leur expertise respective en traitement des images MS/HS et en machine learning pour l’imagerie satellitaire. Le ou la stagiaire aura également l’occasion de collaborer avec Christophe Colleoni et Anne Créach, chercheurs spécialistes de la biologie intégrative des polysaccharides de réserve au laboratoire UGSF (Unité de Glycobiologie Structurale et Fonctionnelle) de l’Université de Lille.
[1] Androuin, T., Six, C., Bordeyne, F., de Bettignies, F., Noisette, F., & Davoult, D. (2020). Better off alone? New insights in the symbiotic relationship between the flatworm Symsagittifera roscoffensis and the microalgae Tetraselmis convolutae. Symbiosis.https://doi.org/10.1007/s13199-020-00691-y
[2] Dierssen, H. M., McManus, G. B., & Kudela, R. M. (2021). Living up to the hype of hyperspectral aquatic remote sensing. Frontiers in Environmental Science, 9, 649528. https://doi.org/10.3389/fenvs.2021.649528
[3] Purkis, S. J. (2022). Remote sensing the ocean biosphere. Annual Review of Environment and Resources, 47, 357–383.https://doi.org/10.1146/annurev-environ-112420-013219
Profil du candidat :
Candidater :
Issu(e) d’une filière scientifique en sciences de données (traitement du signal et des images, informatique avec une dominante en intelligence artificielle/apprentissage/machine learning, mathématiques appliquées), vous êtes curieux(se) et très à l’aise en programmation (Matlab, Python, C). Vous lisez et parlez avec aisance l’anglais courant. Bien que non-obligatoire, une première expérience en traitement d’images satellitaires hyperspectrales ou en deep learning sera appréciée.
Pour candidater, merci d’envoyer un courriel à {claire.guilloteau, gilles.roussel} [at] univ-littoral.fr en y annexant les documents pouvant supporter votre candidature :
* votre CV,
* une lettre de motivation,
* vos relevés de notes de Licence 3, Master 1, Master 2 (si ces dernières sont disponibles) ou d’Ecole d’Ingénieurs (première à troisième année),
* jusqu’à deux lettres de recommandation ou les noms et moyens de contact de deux référents.
Les candidatures seront étudiées de manière continue jusqu’à ce que le stage soit pourvu.
Formation et compétences requises :
Adresse d’emploi :
Longuenesse (62)
Document attaché : 202512081103_VERDEMES_Stage_2026-FR.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : USIS, ENSTA
Durée : jusqu’à 6 mois
Contact : mario.gleirscher@ensta.fr
Date limite de publication : 2026-01-11
Contexte :
De petites équipes d’autonomous aerial vehicles (AAVs) peuvent être utilisées pour collaborer sur des tâches qui ne conviennent pas à un seul AAV. Ces tâches peuvent impliquer la livraison collaborative de colis ou le partage de ressources (e.g., fusion de capteurs distribués, coordination basée sur la durée de vie des batteries ou les capacités de charge utile). De plus, les équipes AAV fonctionnent avec un niveau d’autonomie accru. Une plus grande autonomie impose des exigences plus strictes en matière de critères de performance et de garanties d’exactitude des systèmes de détection et de contrôle de chaque membre de l’équipe. Par exemple, lors d’une tâche de livraison, un vol en formation précis et fiable à proximité immédiate peut être nécessaire.
Sujet :
Ce stage de fin d’études s’inscrit dans le cadre de coordination et contrôle des systèmes robotiques multi-agents et vise à developper une approche pour l’estimation consensuelle des informations pertinentes, la communication entre les membres de l’équipe et la coordination des tâches axée sur les objectifs.
Profil du candidat :
* Diplôme d’ingénieur ou Master 2 en contrôle, mécatronique, systèmes cyber-physiques, systèmes embarqués, ou informatique.
* Niveau d’étude : Bac+5 (M2 ou 3A Diplôme d’ingénieur)
* Bonnes compétences en programmation en C, C++ et Python
* Maîtrise de l’anglais, écrit et parlé. Connaissance préalable du français souhaitable.
Formation et compétences requises :
Compétences recherchées :
* Systèmes multi-agents, contrôle robuste
* Modélisation dynamique, approximation numérique
* Raisonnement automatisé sur les garanties d’exactitude
* Programmation : C, C++, Python
Adresse d’emploi :
Période de démarrage : entre fevrier et mars 2026
Candidature : Merci d’envoyer un CV, une lettre de motivation ainsi que vos relevés de notes à mario.gleirscher@ensta.fr.
Document attaché : 202512081106_stage-vol-en-formation-gleirscher.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Laboratoire Oceanographique de Villefranche-sur-me
Durée : 6 mois
Contact : enza.labourdette@imev-mer.fr
Date limite de publication : 2026-01-15
Contexte :
Le phytoplancton regroupe les micro-organismes marins dérivant au gré des courants et capables de
produire de la matière organique grâce à la photosynthèse.
Il joue un rôle essentiel dans le fonctionnement du système Terre : il contribue à environ la moitié de la
photosynthèse planétaire, participe au stockage du carbone à l’échelle climatique via la pompe
biologique, et constitue la base des réseaux trophiques marins.
Mieux comprendre la répartition et la diversité du phytoplancton, en lien avec les conditions physiques
et biogéochimiques de son environnement, est donc fondamental. Cela permet d’estimer plus finement
sa biomasse, son rôle dans les cycles biogéochimiques et d’anticiper les réorganisations induites par les
changements climatiques et océaniques globaux.
Cependant, l’observation directe du phytoplancton à grande échelle demeure limitée, car elle repose sur
des campagnes en mer et des prélèvements coûteux. Les données HPLC (High Performance Liquid
Chromatography), qui permettent d’analyser les pigments photosynthétiques pour quantifier
précisément les communautés phytoplanctoniques, offrent une référence fiable, mais restent
coûteuses et spatialement limitées.
Pour étendre ces observations ponctuelles à l’échelle globale, les satellites d’observation de la couleur
de l’océan constituent un outil clé. Les algorithmes empiriques actuels permettent d’estimer la
composition du phytoplancton à partir des réflectances optiques , mais ils présentent encore
une marge d’erreur importante et ne capturent pas toujours la complexité spatiale et temporelle des
structures océaniques (fronts, tourbillons, etc.).
Sujet :
Ce stage s’inscrit dans la continuité d’une thèse centrée sur la prédiction des Phytoplankton Functional
Types (PFTs) à partir de la couleur de l’eau et de variables satellitaires à l’aide de méthodes de deep
learning.
L’objectif principal est d’améliorer la robustesse et la précision des prédictions en intégrant explicitement
la dimension temporelle des données au moyen de méthodes avancées de deep learning.
Concrètement, cela consiste à exploiter les images satellites des jours ou des semaines précédentes pour
estimer la quantité et la composition du phytoplancton à un instant t donné. En effet, la croissance du
phytoplancton est un processus dynamique, et son état actuel dépend fortement des états antérieurs du
système.
Un pipeline opérationnel est déjà en place :
– les données satellitaires et in situ ont été extraites et prétraitées,
– des modèles de type MLP (Multi-Layer Perceptron) ont été développés et évalués,
– une première étude de la sensibilité, en termes de qualité des prédictions, aux variables d’entrée
et à l’architecture du modèle a été menée,
– une seconde étude, sur l’intégration de la dimension spatiale dans les données d’entrée, est en
cours.
Le stage consistera à poursuivre et à approfondir ces travaux, notamment en :
– explorant de nouvelles architectures de deep learning (par ex. RNN) permettant de mieux
capturer la structure temporelle des données ;
– évaluant l’impact de cette intégration sur la qualité des prédictions de PFTs ;
– affinant l’interprétation des modèles pour mieux comprendre les liens entre conditions
environnementales et composition des communautés phytoplanctoniques.
Ce travail contribuera directement à l’amélioration des produits satellitaires de distribution
phytoplanctonique à l’échelle globale, utiles pour le suivi de la santé des écosystèmes marins et la
gestion durable des ressources océaniques.
Objectifs du Stage :
– Compréhension de la problématique biologique.
– Étude des relations entre les propriétés optiques de l’eau et les PFTs.
– Prise en main et optimisation du pipeline existant, de la sélection et du traitement des données
jusqu’à leur exploitation dans un modèle de deep learning.
– Analyse de la variabilité spatio-temporelle : quantifier l’impact de l’intégration des dimensions
spatiale et temporelle sur la prédiction des PFTs.
– Mise en forme et valorisation des résultats pour une utilisation dans des travaux de recherche à
publier.
Profil du candidat :
Formation et compétences requises :
– Intérêt marqué pour la recherche et les sciences marines.
– Maîtrise du langage Python.
– Connaissances en deep learning (PyTorch).
– Des notions en écologie, biologie marine ou océanographie seraient un atout.
Adresse d’emploi :
181 chemin du Lazaret Villefranche-sur-Mer, France
Document attaché : 202511140931_STAGE 2026 – ANNONCE.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : ICube
Durée : 5-6 mois
Contact : florence.leber@engees.unistra.fr
Date limite de publication : 2026-01-15
Contexte :
The restoration or naturalization of hydro-ecosystems is a major challenge for the coming years in order to protect and preserve the quality and quantity of river water. Many restoration works – both recent and historical – have generated large amounts of textual documentation (reports, archival documents, project plans, regulations, scientific articles) and visual material (maps, drawings, aerial/satellite imagery, photographs, cross-sectional charts). However, that material is often unstructured, scattered across institutions, in multiple languages, and not organized to support comparative analysis, learning, or decision-making effectively.
Sujet :
The main research task involves applying and refining VLMs to extract complementary information from visual and textual data. The VLMs should recognize and describe restoration structures, spatial configurations, and temporal stages (before, during, and after restoration) from images. They should extract objectives, methodologies, outcomes, and environmental parameters from text. A key scientific challenge lies in the multi-modal alignment of information linking visual elements and textual references to produce consistent and interpretable outcomes.
Building on these results, the internship will contribute to the enrichment of an already existing structured knowledge model (ontology), describing restoration cases through key properties including intervention type, environmental context, methods, results, constraints, and costs. In addition to enriching the knowledge model, another key point is populating the knowledge model by constructing knowledge graphs with information extracted from images and text, ensuring querying, comparison, and visualization by researchers and practitioners.
Profil du candidat :
Knowledge on data science methods, knowledge representation and reasoning, knowledge graphs.
Languages: Python, java, owl/sparql.
Interest in the application domain, ability to work with experts who are not computer scientists would be appreciated.
Formation et compétences requises :
Student about to graduate a Master or Engineer (Bac + 5) with a specialization in Computer Science.
Adresse d’emploi :
ICube — 300 bd Sébastien Brant – CS 10413 – F-67412 Illkirch Cedex
Meetings at ENGEES, 1 cour des cigarières, Strasbourg.
Document attaché : 202511141617_Sujet_stage_TETRA_VLM.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : PRISME / Université d’Orléans
Durée : 6 mois
Contact : youssef.fouzai@etu.univ-orleans.fr
Date limite de publication : 2026-01-16
Contexte :
Ce stage s’inscrit dans le cadre du projet régional CERES, porté par le BRGM en partenariat avec le laboratoire PRISME de l’Université d’Orléans, Thélem Assurances et l’Agglomération de Blois. L’objectif global du projet est de caractériser grâce à des
techniques d’intelligence artificielle les éléments exposés du territoire du Centre-Val de Loire face aux risques naturels. On s’appuie sur des images satellitaires, d’autres issues de Google Street View (GSV )et des données cartographiques.
Sujet :
Dans le cadre du stage, les travaux à effectuer visent à approfondir l’analyse des façades de bâtiments, afin de produire des éléments exploitables pour caractériser leur
vulnérabilité face aux risques naturels dont le retrait/gonflement argileux qui fissure les constructions. Une façade contient de nombreux indicateurs de vulnérabilité auxquels l’expert attache une grande attention comme la surface et la position des portes et fenêtres ou la géométrie du bâtiment, pour l’affecter à une classe de vulnérabilité.
L’exploitation des images GSV utilisera des modèles deep learning pour détecter les façades dans les images et extraire des caractéristiques permettant d’en déduire un niveau de vulnérabilité Les résultats du stage seront exploités dans le cadre de la thèse du doctorant qui participera à l’encadrement du stagiaire.
Profil du candidat :
BAC+5 (Master 2/ école ingénieur) en informatique.
Formation et compétences requises :
BAC+5 (Master 2/ école ingénieur) en informatique avec de bonnes connaissances en traitement d’images, la maîtrise de la programmation Python (Pandas, NumPy, Scikitlearn, PyTorch/TensorFlow) ainsi qu’en apprentissage profond et un bon niveau d’anglais. Quelques connaissances en Systèmes d’Information Géographique (SIG) seraient également appréciées.
Adresse d’emploi :
Polytech, 12 Rue de Blois, 45100 Orléans
Document attaché : 202510311400_Stage Master_PRISME_CERES_v1.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : LITIS Lab, Rouen Normandie
Durée : 5 to 6 months
Contact : paul.honeine@univ-rouen.fr
Date limite de publication : 2026-01-23
Contexte :
Sujet :
The foundation model (FM) paradigm is undoubtedly a major breakthrough in Machine Learning (ML) for Artificial Intelligence (AI). An FM is a large-scale neural network pre-trained with self-supervision on a vast unannotated dataset and designed to perform downstream tasks with minimal fine-tuning on small annotated datasets. While FMs have made an outstanding leap in computer vision and large language models, they have not yet emerged in fields where data is more complex, such as hyperspectral imaging and chemical analysis. Unlike traditional cameras with their primary colors (red, green, and blue), hyperspectral cameras capture detailed spectral information at every pixel, providing a detailed description of the properties of the material in the scene. ML methods have been devised to explore hyperspectral images, mainly addressing spectral unmixing, classification, and segmentation tasks. With the FM paradigm reshaping the landscape of ML, there is growing interest in FMs for hyperspectral imaging, with several papers published very recently mainly for image segmentation in airborne or satellite images [1, 2, 3].
This internship, leading to a PhD thesis, is an integral part of the interdisciplinary project HyFoundationS (Hyperspectral Foundation Models for Chemical Soil Analysis). Led by the LITIS Lab, HyFoundationS aims to develop an FM for chemical analysis of soil pollution by hyperspectral imaging. In order to unleash the full potential of FMs in the analysis of soil pollution, HyFoundationS brings together an AI laboratory (LITIS), a chemistry laboratory (Institut CARMeN), and a startup specialized in soil pollution analysis (Tellux). This consortium has been working together for more than 5 years, developing ML and chemical analysis for soil pollution assessment using hyperspectral cameras installed on a bench in lab conditions, allowing full environmental control on a wide variety of pollutants. HyFoundationS aims to provide major innovations to overcome key scientific and technical barriers for soil pollution analysis with FMs.
The intern will work (i) on reviewing the literature of FMs for hyperspectral imaging, focusing on several recently published papers [1, 2, 3], (ii) on providing a solid local implementation of an FM, (iii) on extending it to address chemical analysis tasks, and (iv) on providing experiments and evaluation for a case study. This work will be carried out in close collaboration with post-doc fellows, engineers, and senior researchers in AI, in chemical analysis, and in geoscience.
[1] N. A. A. Braham, C. M. Albrecht, J. Mairal, J. Chanussot, et al., “SpectralEarth: Training hyperspectral foundation models at scale.” IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing (2025).
[2] D. Wang, M. Hu, Y. Jin, Y. Miao, et al., “Hypersigma: Hyperspectral intelligence comprehension foundation model.” IEEE Transactions on Pattern Analysis and Machine Intelligence, 2025.
[3] D. Hong, B. Zhang, X. Li, Y. Li, C. Li, et al., “SpectralGPT: Spectral remote sensing foundation model,” IEEE Transactions on Pattern Analysis and Machine Intelligence, 2024.
Profil du candidat :
We are seeking a highly motivated intern with a strong interest in AI for science. The candidate must be in a Master’s or an engineering program in computer science, applied mathematics, AI, or a related field (including remote sensing), and must have solid technical skills in deep learning, with experience in Python and the common ML libraries.
Candidates with a strong interest in interdisciplinary research and who are able to work in a collaborative environment are strongly encouraged to apply.
If interested in an internship leading to a PhD, please send your CV and transcripts along with a motivational email to paul.honeine@univ-rouen.fr.
We also welcome applications for a PhD or Post-doc within the project HyFoundationS.
Formation et compétences requises :
Adresse d’emploi :
Rouen Normandie
Offre en lien avec l’Action/le Réseau : – — –/Innovation
Laboratoire/Entreprise : LS2N – Nantes Université
Durée : 5-6 months
Contact : yannick.prie@univ-nantes.fr
Date limite de publication : 2026-01-30
Contexte :
In collaboration with the LPPL, we have developed and tested a new embodied and immersive environment for assessing prospective memory. This environment is based on a learning task in which users must remember event- and time-based actions, in order to complete tasks in a large shopping mall.
Last year, a first experiment enabled us to collect user behavioral data from around 50 participants in 3 age categories (young adults, middle-aged, seniors) in this virtual environment. Classical memory scores (e.g., successes, type of failures, times…) were computed to assess the validity of this new virtual environment for evaluating prospective memory. We have designed a second experiment with two additional scenarios in the virtual mall and will test it this year with healthy participants and patients.
A key advantage of using virtual reality for neuropsychological assessment is the ability to use users’ behaviour, from user logs and trajectory data, to personally and accurately characterize users’ performance and cognitive state. A key challenge towards this goal is defining new indicators or metrics that are useful for clinicians and integrating them into clinician dashboards. The complex nature of the behavioral data and the limited number of subjects currently available makes modeling difficult.
Sujet :
The objective of this internship is to develop and assess a framework based on multimodal generative AI models that can visualize and model this behavioral data in order to propose new indicators for clinical use.
Missions
– State of the Art on behavioral indicators for neuropsychological/cognitive assessment
– Design AI-based workflows / architecture for data analysis
– Propose new indicators based on AI-framework
– Construct dashboards
Profil du candidat :
Last year in Engineering / Master’s degree
Duration : 5 / 6 months
Conditions: around 600€ / Month + half public-transportation monthly ticket
Formation et compétences requises :
Computer science or data science
– Knowledge and proficient use of generative AI
– Interest for cognitive sciences et interdisciplinarity
– Proficient in English
Send CV + motivation to yannick.prie@univ-nantes.fr, toinon.vigier@univ-nantes.fr
Adresse d’emploi :
Halle 6 Ouest on Nantes Island (https://halle6ouest.univ-nantes.fr/) and Polytech Nantes
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : IRIT (Institut de Recherche en Informatique de Tou
Durée : 6 mois
Contact : hugo.boisaubert@irit.fr
Date limite de publication : 2026-01-31
Contexte :
La finalité de ce stage est de contribuer à l’amélioration de la qualité des soins et de la vie des patients, tout en optimisant les ressources du système de santé avec des retombées potentielles applicables à d’autres secteurs et contextes cliniques.\
Dans le contexte médical, l’utilisation des modèles de processus ouvre de nouvelles possibilités pour la simulation de patient au bloc opératoire, la prédiction de ses futurs états ou encore la prédiction des besoins en médicaments. D’un point de vue décisionnel, les modèles de processus combinés aux données médicales peuvent permettre de nouvelles prédictions pour orienter un soignant dans les soins les plus adaptés à réaliser les plus adaptés aux patients dans une logique de médecine personnalisée.
Les processus de soins produisent des données qui peuvent être utilisée par des approche de modélisation automatique de processus. Cependant, alors que les données produites sont multi-modales (séries temporelles, textes, images, “mesures terrain”…), cette caractéristique est rarement exploitée.
Sujet :
Pour concrétiser ces possibilités, au cours de ce stage, il s’agira d’abord de constituer un état de l’art des approches de modélisation semi-automatique de processus, avec un focus particulier sur les cas d’application en santé. À partir des éléments identifiés, ce stage explorera de manière expérimentale l’enrichissement de processus par des données multimodales de santé dans un contexte d’anesthésie.
Profil du candidat :
Étudiant.e en cycle master ou ingénieur, en Informatique ou mention similaires, appétence pour la santé-numérique ou la bio-informatique.
Formation et compétences requises :
— Rigueur en programmation et capacité à générer de la documentation, avec usage des outils
standard (Git, Doctest, Sphinx ou équivalents) ;
— Des compétences en bases de données (SQL) sont attendues et une expérience en calcul intensif (ordonnanceur, parallélisation) sera appréciée ;
— Capacités à rendre compte de son travail régulièrement et à produire des outils de suivi et de pilotage ;
— Capacité à produire efficacement des documents de communication scientifique.
Langues : Maîtrise du Français (Niveau A2), conversationnel et écrit ; Maîtrise de l’anglais scientifique, écrit. Les certifications attestant de votre niveau en langues sont vivement encouragées.
Adresse d’emploi :
IRIT – IUT de Castres,
5 allée du Martinet
81100 CASTRES
Document attaché : 202512241517_stage_m2_2026_modele_processus-4.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : LIAS
Durée : 6 mois
Contact : baron@ensma.fr
Date limite de publication : 2026-01-31
Contexte :
Bimedia, filiale du groupe Orisha, est une entreprise spécialisée dans les solutions destinées aux points de vente de proximité (bureaux de tabac, boulangeries, etc.). Son offre repose sur un ensemble de services comprenant du matériel (caisses enregistreuses à double écran : le premier pour le commerçant et le second pour le client final), un logiciel d’encaissement, des solutions dématérialisées (cartes prépayées, etc.), ainsi que des dispositifs d’animation commerciale via des publicités diffusées sur l’écran client des caisses. Si le point de vente est identifié, le client final, lui, ne l’est pas. Pour pallier cette limite, une initiative récente baptisée BMyShop 1, proposée par Bimedia sous la forme d’une application mobile, permet d’associer certains clients finaux grâce à un programme de fidélité. Les informations collectées se limitent aux données strictement nécessaires (prénom, nom, âge) en conformité avec la réglementation (RGPD). Toutefois, cette base de clients finaux identifiés reste restreinte par rapport au volume de transactions réellement effectuées dans les commerces par des clients finaux anonymes, ce qui pose un défi scientifique pour exploiter des données partielles et anonymisées afin de caractériser, enrichir ou déduire des profils clients représentatifs.
Bimedia s’est associée au laboratoire LIAS, dans le cadre d’un projet de recherche appliquée. Trois enseignants-chercheurs et un ingénieur de recherche encadreront un étudiant de Master 2 (université ou école d’ingénieurs). Le travail attendu visera à développer des techniques d’apprentissage automatique (clustering, apprentissage semi-supervisé, génération de données synthétiques, intégration de données externes, etc.) pour construire des profils représentatifs tout en garantissant l’anonymat des participants. Pour comparer sa proposition avec l’état de l’art, l’étudiant devra identifier des bancs d’essai adaptés ou en définir un nouveau. Un objectif secondaire consistera à calculer un indice de confiance sur le profil établi en utilisant la théorie des modèles probabilistes.
Sujet :
L’objectif de ce stage est d’explorer des approches d’analyse et d’enrichissement de données à partir des bases transactionnelles (l’historique d’achats) issues d’une part des clients identifiés via l’application BMyShop et, d’autre part, des clients anonymes. Le stage visera à définir des techniques permettant de caractériser et d’associer des profils clients à partir de données partielles :
– élaboration de modèles prédictifs basés sur l’état de l’art et adaptés aux besoins spécifiques de Bimedia ;
– évaluation des différents modèles obtenus ;
– calcul d’indices de confiance sur les prédictions.
Si possible, les techniques développées devront mener à des modèles explicables pour que les analystes métiers de Bimedia puisse comprendre et accorder une certaine confiance aux résultats obtenus.
À noter que la réalisation d’un prototype de faisabilité sera demandé. Il ne s’agit pas de développer un logiciel industriel, qui lui sera à la charge de l’entreprise. L’entreprise souhaite juste s’assurer de la faisabilité technique et scientifique de la démarche proposée.
Profil du candidat :
Le candidat doit être en Master 2 en Informatique ou en dernière année de préparation d’un diplôme d’ingénieur spécialité Informatique.
Formation et compétences requises :
Une bonne connaissance du langage de programmation Python et des bibliothèques usuelles d’apprentissage automatique est requise. Un bon niveau en français est fondamental.
Adresse d’emploi :
https://www.lias-lab.fr/jobs/2026_lias_idd_profilsclients_fr.pdf
Document attaché : 202511071103_2026_lias_idd_profilsclients_fr.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Laboratoire d’Informatique et Systèmes – LIS – UMR
Durée : 5 à 6 mois
Contact : marc-emmanuel.bellemare@univ-amu.fr
Date limite de publication : 2026-01-31
Contexte :
Le stage se déroulera à Marseille essentiellement au laboratoire d’informatique et des systèmes (LIS) dans l’équipe Images & Modèles sur le campus de St Jérôme (https://im.lis-lab.fr).
Le LIS UMR 7020 fédère plus de 375 membres. La recherche y est structurée au sein de pôles (calcul, science des données, analyse et contrôle des systèmes, signal et image), et centrée sur les activités dans les domaines de l’informatique, de l’automatique, du signal et de l’image. L’apprentissage profond en particulier y est un thème transverse et le LIS dispose d’une plateforme dédiée, un cluster de nœuds GPU ainsi que le personnel de gestion nécessaire.
Sujet :
La modélisation des déformations des organes abdominaux revêt une importance cruciale pour la santé des patients et pour de nombreuses applications cliniques, telles que la planification de la radiothérapie adaptative, le suivi de la progression des maladies ou encore l’analyse biomécanique des tissus. L’imagerie par résonance ma- gnétique (IRM) peut offrir une visualisation spatiale et en coupe des déformations d’organes in vivo. Cependant, l’état de l’art actuel présente plusieurs limitations, notamment en termes de résolution et de reconstruction fidèle de l’évolution tridimensionnelle et dynamique des organes. L’objectif de ce stage est de proposer des solutions innovantes pour pallier ces limites.
Dans le cadre d’un projet de recherche mené en collaboration avec l’AP-HM, nous nous intéressons au suivi des déformations des principaux organes pelviens. L’approche actuelle [1, 4] consiste à détecter un contour sur une série d’images 2D, puis à effectuer un échantillonnage spatial de ce contour initial. Les contours suivants sont ensuite estimés de manière récurrente à l’aide d’un modèle de transport optimal, la déformation finale étant calculée à partir de la distance entre les points d’échantillonnage obtenus. Cependant, cette méthode présente plusieurs faiblesses : la construction de l’échantillonnage est souvent arbitraire, le transport optimal peut introduire des biais difficiles à maîtriser, et la définition même de la distance utilisée reste discutable. Ces éléments limitent la robustesse et la généralisabilité de l’approche, malgré son intérêt scientifique certain.
Afin de dépasser ces limitations, ce stage vise à exploiter des modèles et méthodes récents capables d’apporter plus de cohérence et de précision à la modélisation des déformations. Le premier axe d’amélioration concerne la discrétisation : celle-ci peut être évitée grâce aux représentations neuronales implicites (Implicit Neural Representations, INRs). Ces dernières reposent sur le principe d’approximation universelle des réseaux de neurones, leur permettant de représenter n’importe quelle forme continue. Ainsi, le contour précédemment échantillonné sera alors directement modélisé par un réseau neuronal.
Pour l’estimation des déformations, nous proposons d’utiliser des réseaux de neurones informés par la phyique (Physics-Informed Neural Networks, PINNs). L’idée est d’intégrer des contraintes issues des équations mécaniques de la déformation afin d’estimer à la fois le champ de déformation et les paramètres des lois de comportement des tissus.
En résumé, le stage a pour objectif de combiner les représentations neuronales implicites et les réseaux de neurones informés par la physique afin de modéliser les déformations d’organes alignées sur des données d’imagerie IRM, offrant ainsi une approche plus continue, précise et physiquement cohérente de la dynamique des organes observés.
Réalisation
L’objectif principal de ce stage est de développer et d’évaluer des modèles de déformation d’organes, en s’appuyant sur des approches d’apprentissage profond et de modélisation physique.
Les étapes et objectifs clés sont les suivants :
— Développer une représentation neuronale implicite (INR) des contours de déformation de la vessie en 2D + temps.
— Évaluer les performances de cette représentation en termes de précision et de continuité temporelle.
— Concevoir une approche basée sur les réseaux de neurones informés par la physique afin de reconstruire le champ de déformation et d’estimer les paramètres mécaniques du comportement.
— Évaluer les performances du PINN selon deux perspectives possibles :
— comme modèle hybride, intégrant à la fois les données expérimentales et les contraintes issues des équations physiques, afin de guider l’apprentissage vers des solutions cohérentes avec les lois mécaniques.
— ou comme problème inverse, visant à identifier les paramètres physiques (par ex. propriétés mécaniques des tissus) et les déformations spatiales à partir des données observées, tout en respectant les équations de la mécanique des milieux continus.
— Perspective d’extension vers la 3D+temps
Données
Le projet s’appuiera sur un jeu de données d’IRM dynamiques de la vessie, collecté auprès de 50 patientes. L’échantillonnage temporel, à raison d’une image par seconde, des séquences sagittales dynamiques fournit 12 images par patiente. Les contours de la vessie ont été extraits de manière manuelle ou semi-automatique, sur l’ensemble des images de la séquence dynamique. Au total, 600 contours ont ainsi été obtenus, constituant la base de données utilisée pour l’apprentissage et l’évaluation des performances du modèle.
Profil du candidat :
Le ou la candidat.e sera intéressé.e par un domaine pluridisciplinaire embrassant l’analyse d’image, les mathématiques appliquées, le deep-learning, dans un contexte médical.
Des connaissances en équations aux dérivées partielles (EDP) et en méthodes de résolution par éléments finis constituent un atout supplémentaire pour ce stage.
Formation et compétences requises :
De formation Bac+5 dans une formation concernée par le traitement d’image. Une expérience de la programmation avec l’environnement python est un pré-requis, la connaissance de la bibliothèque JAX serait un plus.
Le stage aura une durée de 4 à 6 mois avec la gratification d’usage (de l’ordre de 600€ par mois).
Adresse d’emploi :
Laboratoire d’Informatique et Systèmes – LIS – UMR CNRS 7020 – Aix-Marseille Université
Campus scientifique de St Jérôme – Av. Escadrille Normandie Niemen -13397 Marseille Cedex 20
www.lis-lab.fr
Document attaché : 202511071339_M2_stage_LIS_PINN.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Laboratoire d’Informatique et Systèmes LIS – UMR
Durée : 5 à 6 mois
Contact : marc-emmanuel.bellemare@lis-lab.fr
Date limite de publication : 2026-01-31
Contexte :
Le stage se déroulera à Marseille essentiellement au laboratoire d’informatique et des systèmes (LIS) dans l’équipe Images & Modèles sur le campus de St Jérôme (https://im.lis-lab.fr).
Le LIS UMR 7020 fédère plus de 375 membres. La recherche y est structurée au sein de pôles (calcul, science des données, analyse et contrôle des systèmes, signal et image), et centrée sur les activités dans les domaines de l’informatique, de l’automatique, du signal et de l’image. L’apprentissage profond en particulier y est un thème transverse et le LIS dispose d’une plateforme dédiée, un cluster de nœuds GPU ainsi que le personnel de gestion nécessaire.
Sujet :
Le stagiaire s’attachera à la segmentation des images acquises lors de l’observation par IRM dynamique des déformations des organes pelviens afin de produire des reconstructions 3D des surfaces en mouvement.
Les troubles de la statique pelvienne représentent un enjeu de santé publique. Ils regroupent un ensemble de pathologies associant une perte des rapports anatomiques normaux des organes pelviens, et une altération dramatique de la qualité de vie des malades. Ces pathologies sont handicapantes à des degrés variés mais leur physiopathologie reste encore mal connue ce qui complique leur prise en charge. Dans le cadre d’une collaboration avec le service de chirurgie digestive de l’AP-HM, de nouvelles acquisitions IRM, associées à une reconstruction adaptée, ont permis la visualisation 3D des organes en mouvement. Des résultats probants ont été récemment obtenus et publiés pour l’observation de la vessie (Figure) et il s’agit de s’intéresser aux autres organes pelviens. Des acquisitions multi-planaires ont été réalisées dans des plans non classiques ce qui complique la reconnaissance des organes. Ainsi la segmentation des principaux organes impliqués est une étape primordiale mais difficile. Les partenaires cliniciens ont réalisé des segmentations manuelles des organes sur ces plans ce qui permet de disposer d’une vérité-terrain. Nous envisageons de proposer un nouveau modèle de réseau, adapté à la configuration des plans d’acquisition.
Les problématiques de recalage, de segmentation et de modèles 3D, au cœur du projet, seront abordées selon les compétences et préférences du stagiaire.
Profil du candidat :
Le candidat ou la candidate de niveau Bac+5 dans une formation intégrant le traitement d’images, sera intéressé(e) par un projet pluridisciplinaire et par l’imagerie médicale. Les domaines abordés concernent les réseaux de neurones profonds, la segmentation d’IRM et la reconstruction 3D.
Le stage aura une durée de 4 à 6 mois avec la gratification d’usage (de l’ordre de 600€).
Formation et compétences requises :
La compétence en programmation python est un pré-requis.
Des compétences en mathématiques appliquées seront particulièrement appréciées. Une expérience de la programmation avec l’environnement PyTorch serait un plus.
Adresse d’emploi :
Laboratoire d’Informatique et Systèmes – LIS – UMR CNRS 7020 – Aix-Marseille Université
Campus scientifique de St Jérôme – Av. Escadrille Normandie Niemen -13397 Marseille Cedex 20
www.lis-lab.fr
Document attaché : 202511071329_Sujet_Master2_DL&SegmentationMultiPlan.pdf
Offre en lien avec l’Action/le Réseau : – — –/Doctorants
Laboratoire/Entreprise : IRISA/UBS
Durée : 6 mois
Contact : minh-tan.pham@irisa.fr
Date limite de publication : 2026-01-31
Contexte :
Sujet :
Please see the attached PDF file.
Profil du candidat :
Formation et compétences requises :
Adresse d’emploi :
IRISA-UBS, 56000 Vannes
Document attaché : 202510091448_2025_Master_topic_Dreams.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : LaSTIG – IGN
Durée : 6 mois
Contact : alexandre.hippert-ferrer@ign.fr
Date limite de publication : 2026-02-01
Contexte :
Sujet :
Voir offre au format pdf.
Profil du candidat :
Niveau Master 2 en Machine Learning / Télédétection / Sciences de la Terre
Formation et compétences requises :
The internship requires a genuine interest and curiosity in Earth sciences (glaciology and climate science in particular). Strong skills in statistical mathematics, deep learning, computer vision, and remote sensing are expected. Proficiency in one or more machine learning libraries in Python (PyTorch, Tensorflow, Keras) is expected. A good level of scientific computing with Python (scipy, scikit-learn, numpy) is also required.
Adresse d’emploi :
LaSTIG Laboratory, IGN/ENSG, 6-8 avenue Blaise Pascal, 77420 Champs-sur-Marne, France.
Document attaché : 202510081015_fiche_stageM2_GlacierDeepLearning_eng.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Laboratoire DVRC
Durée : 4-6 mois
Contact : christophe.rodrigues@devinci.fr
Date limite de publication : 2026-02-02
Contexte :
Sujet :
M2 Research Internship
Generative AI for Ransomware Time‑Series Detection
The context of the work is Owlyshield, a behavioral time‑series dataset built from Endpoint Detection and Response (EDR) logs to detect ransomware attacks. We aim to generate realistic synthetic sequences that preserve temporal structure and inter‑feature dependencies to improve anomaly detection (benign or ransomware) on this dataset.
Missions
The intern will:
review deep generative models for time series (with a focus on transformer‑style methods);
design and implement conditional generative models (e.g., TimeGAN‑like architectures) to produce labeled multivariate sequences consistent with Owlyshield statistics;
define quality metrics (distributional similarity, temporal coherence, correlation structures);
evaluate the impact of synthetic data on downstream ransomware/anomaly detection performance.
Profile
M2 student in Computer Science, Data/AI, or Applied Mathematics. Solid background in machine learning and Python; experience with deep learning (PyTorch or TensorFlow) and time‑series data. Knowledge of generative models (GANs/VAEs) and transformers, cybersecurity is a plus. Autonomy, rigor, and good written English are expected.
Practical information
Duration: 4-6 months (full-time, 2026).
Location: ESILV, Paris
Supervision: Sourav Rai, Christophe Rodrigues and Nga Nguyen
Application
Send CV, cover letter, grades and recommendation letters to christophe.rodrigues@devinci.fr and nga.nguyen@devinci.fr with subject: “M2 Internship – Generative Time‑Series”.
Dataset/ References
[1] SitInCloud, “Ransomware Detection (Owlyshield documentation),” https://docs.sitincloud.com/concepts/ransomware-detection.html
[2] J. Yoon, D. Jarrett, M. van der Schaar, “Time‑series Generative Adversarial Networks,” NeurIPS, 2019.
[3] X. Li, V. Metsis, H. Wang, A. H. H. Ngu, “TTS-GAN: A Transformer-based Time-Series Generative Adversarial Network,” in Proc. 20th Int. Conf. on Artificial Intelligence in Medicine (AIME), 2022.
Profil du candidat :
Formation et compétences requises :
Adresse d’emploi :
Paris, La Défense
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Laboratoire DVRC
Durée : 4-6 mois
Contact : christophe.rodrigues@devinci.fr
Date limite de publication : 2026-02-02
Contexte :
Sujet :
M2 Research Internship
Generative AI for Ransomware Time‑Series Detection
The context of the work is Owlyshield, a behavioral time‑series dataset built from Endpoint Detection and Response (EDR) logs to detect ransomware attacks. We aim to generate realistic synthetic sequences that preserve temporal structure and inter‑feature dependencies to improve anomaly detection (benign or ransomware) on this dataset.
Missions
The intern will:
review deep generative models for time series (with a focus on transformer‑style methods);
design and implement conditional generative models (e.g., TimeGAN‑like architectures) to produce labeled multivariate sequences consistent with Owlyshield statistics;
define quality metrics (distributional similarity, temporal coherence, correlation structures);
evaluate the impact of synthetic data on downstream ransomware/anomaly detection performance.
Profile
M2 student in Computer Science, Data/AI, or Applied Mathematics. Solid background in machine learning and Python; experience with deep learning (PyTorch or TensorFlow) and time‑series data. Knowledge of generative models (GANs/VAEs) and transformers, cybersecurity is a plus. Autonomy, rigor, and good written English are expected.
Practical information
Duration: 4-6 months (full-time, 2026).
Location: ESILV, Paris
Supervision: Sourav Rai, Christophe Rodrigues and Nga Nguyen
Application
Send CV, cover letter, grades and recommendation letters to christophe.rodrigues@devinci.fr and nga.nguyen@devinci.fr with subject: “M2 Internship – Generative Time‑Series”.
Dataset/ References
[1] SitInCloud, “Ransomware Detection (Owlyshield documentation),” https://docs.sitincloud.com/concepts/ransomware-detection.html
[2] J. Yoon, D. Jarrett, M. van der Schaar, “Time‑series Generative Adversarial Networks,” NeurIPS, 2019.
[3] X. Li, V. Metsis, H. Wang, A. H. H. Ngu, “TTS-GAN: A Transformer-based Time-Series Generative Adversarial Network,” in Proc. 20th Int. Conf. on Artificial Intelligence in Medicine (AIME), 2022.
Profil du candidat :
Formation et compétences requises :
Adresse d’emploi :
Paris, La Défense
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : institut Fresnel
Durée : 4 à 6 mois
Contact : andre@fresnel.fr
Date limite de publication : 2026-02-02
Contexte :
Les technologies d’imagerie capables de détecter les processus biologiques précoces in vivo de manière non invasive pour des études longitudinales, avec une haute résolution, représentent un défi pour la recherche biomédicale. Le concept de notre système d’imagerie repose sur un nouveau d’imagerie optique diffuse de fluorescence multicolore pour l’imagerie in vivo du petit animal en trois dimensions (3D) dans la fenêtre NIR-II (1000-2000 nm). La tomographie optique diffuse de fluorescence consiste à injecter au sujet (ici une souris) des substances chimiques qui se fixent sur différents organes. Ces substances chimiques, appelées fluorophores, sont alors excitées par une source lumineuse puis réémettent de la lumière lors de leur relaxation, à plus faible énergie (plus longue longueur d’onde). L’objectif est de reconstruire des images à partir de ce signal de fluorescence. Le signal de fluorescence ainsi que la source d’excitation peuvent être atténués à la fois par l’absorption et la diffusion des différents milieux traversés, ce qui entraîne une distorsion des spectres mesurés. La reconstruction des images est généralement un problème mal-posé nécessitant l’utilisation d’algorithmes d’optimisation exploitant des connaissances apriori sur les volumes à reconstruire.
Sujet :
Le but du stage est le développement d’algorithmes de reconstruction spécifiques aux images hyper-spectrales i.e. lorsque le sujet est excité avec différentes longueurs d’onde et que le signal de fluorescence est échantillonnée à plusieurs longueurs d’onde. Les connaissances apriori sur les volumes à reconstruire seront estimées à l’aide d’algorithmes de deep learning.
Profil du candidat :
Le candidat recruté devra avoir être en dernière année d’école d’ingénieurs ou en Master 2 dans le domaine des mathématiques appliquées, le traitement du signal/images ou dans une formation équivalente. Il devra être particulièrement à l’aise en programmation (python/Matlab) et avoir une réelle appétence pour les interactions entre l’informatique et la physique.
Formation et compétences requises :
Adresse d’emploi :
52 Av. Escadrille Normandie Niemen, 13013 Marseille
Document attaché : 202509290900_stage tomo hyper spectral.pdf
