TranslA : Sociétés en Transition à l’ère de l’Intelligence Artificielle

Date : 2026-03-12 => 2025-11-24
Lieu : Université de Tours – Institut Universitaire de Technologie – 29 Rue du Pont Volant – 37100 Tours

SOCIÉTÉS EN TRANSITION À L’ÈRE DE
L’INTELLIGENCE ARTIFICIELLE
Interroger les dynamiques historiques, les recompositions sociétales et les nouveaux horizons normatifs
(TRANSIA)

Les sociétés humaines traversent régulièrement des périodes de transition qui reconfigurent leurs structures organisationnelles, leurs systèmes de valeurs et leurs modes de gouvernance. L’émergence de l’intelligence artificielle s’inscrit pleinement dans cette dynamique historique, tout en soulevant des interrogations inédites sur les choix de société, les cadres éthiques contemporains et la fabrique du collectif.

Dans un contexte d’accélération technologique qui questionne les processus traditionnels de délibération démocratique, l’objectif de ce colloque est de questionner l’articulation entre innovation technique, reconfiguration des valeurs et enjeux de gouvernance, au regard des continuités et des ruptures avec les transitions antérieures (Castoriadis, 1975 ; Ricoeur, 1984).

Afin de saisir toute la complexité de ces évolutions, nous invitons les contributions à croiser approches historiques, empiriques et théoriques, afin de penser l’IA non seulement comme une avancée technique mais aussi comme une construction sociale et symbolique. Dans la lignée d’une interrogation sur les « conditions de possibilité » des transitions (Kant, 1781), la pluralité des regards (anthropologie, droit, économie, gestion, informatique, philosophie, science politique, sciences de l’éducation, sciences de l’information et communication, sociologie, etc.) permettra d’analyser ce qui rend possible, souhaitable ou problématique les évolutions autour de l’IA, tout en questionnant leurs impacts, leurs limites et les enjeux de pouvoir qu’elles soulèvent.

Les contributions attendues devront être originales, analyser les transformations induites par l’IA sur les individus, les organisations et les structures sociales et interroger les récits et valeurs qui accompagnent ces innovations dans une perspective diachronique. Les propositions fondées sur des cas pratiques, retours d’expériences ou expérimentations innovantes, issues de milieux professionnels, institutionnels ou associatifs, sont également encouragées. Leur apport permettra d’articuler réflexion théorique et enseignements issus du terrain autour des transitions liées à l’IA.

À titre indicatif et sans qu’il s’agisse d’une liste exhaustive, les présentations pourront s’inscrire dans les quatre axes thématiques suivants :

Axe 1 : Gouvernance, normes et régulations de l’IA

Cet axe vise à interroger les cadres juridiques, économiques, politiques et éthiques qui guident l’émergence et le développement de l’intelligence artificielle à différentes échelles, nationale, européenne, internationale … 

Axe 2 : Transformations du travail et des organisations à l’ère de l’IA

Cet axe accueille des analyses empiriques ou théoriques concernant les mutations des métiers, des compétences, des pratiques professionnelles et de la gestion organisationnelle liées à l’IA. 

Axe 3 : IA, transitions environnementales et durabilité

Dans cet axe, l’accent est mis sur les interactions entre intelligence artificielle, transition écologique et quête de modèles durables pour la société. 

Axe 4 : Représentations sociales, imaginaires et cultures de l’IA

Ce dernier axe explore la manière dont l’IA transforme les imaginaires collectifs, les représentations, les valeurs et la place de la technique dans la société. 

 

Calendrier

  • 1er décembre 2025 : Date limite pour la soumission des résumés
  • 30 janvier 2026 : Retour aux contributeurs et contributrices
  • 1er mars 2026 : Date limite pour la soumission des textes complets
  • 5 mars 2026 : Fin des inscriptions (obligatoires) en ligne

 

Format des soumissions

Le fichier “résumé” en format Word contiendra :

  • Le titre de la présentation
  • Le nom des auteurs, leur laboratoire et université de rattachement (pays)
  • Un résumé d’une page maximum (3000 signes bibliographie non comprise) avec la description de la thématique et de la problématique de recherche en lien avec l’IA
  • Les propositions suivront un format “problématique/méthode/résultats/discussion” à l’exception des propositions en droit ou visant à apporter un éclairage théorique et non empirique
  • 5 mots-clés
  • L’axe de rattachement parmi les 4 axes proposés

Le fichier “texte complet” demandé aux contributeurs dont les présentations auront été acceptées sera en version Word et devra suivre le modèle fourni sur la plateforme.

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Détection de phénomènes de diffusion dans les réseaux sociaux

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Université Bourgogne Europe
Durée : 5 à 6 mois
Contact : annabelle.gillet@u-bourgogne.fr
Date limite de publication : 2025-12-31

Contexte :
Dans les réseaux sociaux, la manipulation de l’information est une problématique pouvant avoir des conséquences néfastes importantes. Les stratégies de diffusion d’informations manipulées sont complexes, et peuvent avoir recours à la mise en oeuvre d’armées de robots ayant différents rôles dans le réseau. Par exemple, un groupe de robots peut avoir pour tâche de spammer certains messages ou mots clés afin de manipuler les tendances et de gagner une visibilité importante en peu de temps, d’autres robots peuvent avoir un profil évolué ainsi qu’une activité quotidienne, leur permettant de passer pour des utilisateurs légitimes et de donner plus de poids aux messages qu’ils pourraient diffuser dans certaines communautés. Toutefois, la détection de ces armées de robots est complexe, et l’évolution rapide de leur comportement et de leur organisation restreint les types d’algorithmes utilisables.

Le projet ANR Beelzebot est un projet interdisciplinaire regroupant des chercheurs en informatique, en sciences de la communication et du langage. Il a pour objectif de définir des mécanismes pour détecter les armées de robots sur Twitter en se basant sur des méthodes non-supervisées, ainsi qu’à caractériser les activités de ces armées.

Sujet :
L’objectif du stage, dans le cadre du projet ANR Beelzebot, est de détecter des phénomènes de diffusion sur Twitter et de les caractériser. Pour cela, une approche prometteuse consiste à utiliser des algorithmes s’appuyant sur des tenseurs afin de créer un résumé des données pouvant être exploité pour détecter des zones denses sur le réseau qui peuvent correspondre à des phénomènes de diffusion. Un des avantages des tenseurs est leur aspect multi-dimensionnel, permettant notamment d’intégrer nativement une dimension temporelle aux analyses, contrairement aux approches basées sur les graphes.

Un autre objectif du stage est d’étudier plus en détail les phénomènes de diffusion détectés, en utilisant des analyses complémentaires visant à les caractériser. En effet, certains phénomènes de diffusion sont naturels et résultent de l’utilisation standard du réseau, tandis que d’autres proviennent d’actions de manipulation tentant de profiter des mécanismes du réseau pour diffuser des idées ou perturber son fonctionnement normal. Il s’agit plus particulièrement d’étudier leurs impacts sur les structures communautaires, les utilisateurs frontières, les utilisateurs influents, l’émergence de hashtags, etc.

En plus des jeux de données publics, plusieurs jeux de données collectés sur Twitter sont à disposition, comme par exemple les discussions autour de l’élection présidentielle française de 2022 ou le COVID, contenant de plusieurs millions à plusieurs milliards de tweets. L’environnement matériel des serveurs de stockage et de traitement est opérationnel au Data Center Régional de l’Université Bourgogne Europe.

Une poursuite en thèse à la suite du stage est envisageable.

Profil du candidat :
– étudiant en Master 2 avec spécialité informatique ;
– curiosité et rigueur scientifique ;
– compétences en gestion de données ;
– solides connaissances et compétences en algorithmique et développement logiciel.

Formation et compétences requises :

Adresse d’emploi :
Université Bourgogne Europe, Dijon

Document attaché : 202511211319_StageBeelzebot2026.pdf

AIDT-2026

Date : 2026-06-22 => 2026-06-24
Lieu : UFAZ (French Azerbaidjani University)
Bakou, Azerbaidjan

The Artificial Intelligence for Digital Transformations (AIDT 2026) conference is an international forum dedicated to exploring how Artificial Intelligence (AI) is reshaping the digital landscape across industries, organizations, and societies.

Digital transformation is no longer a choice but a necessity. AI is at the heart of this transformation, enabling new forms of automation, decision-making, and innovation. AIDT 2026 will bring together leading researchers, practitioners, policymakers, and industry experts to exchange knowledge, present cutting-edge research, and discuss real-world applications of AI in the digital era.

AIDT 2026 is co-organized by the French-Azerbaijani University (UFAZ), the Azerbaijan State Oil and Industry University (ASOIU), and the French University of Strasbourg (Unistra) and its ICube laboratory, in collaboration with INSA Rouen Normandie (France) and its LITIS laboratory. The conference is supported by the Ministry of Education and Science of Azerbaijan.

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

From text analysis to influence graphs: approaches based on LLM, fuzzy logic, and Bayesian networks

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : (UR 4108 / FR CNRS 3638)
Durée : 6 mois
Contact : asma.dhaouadi@insa-rouen.fr
Date limite de publication : 2026-02-27

Contexte :
Facility Management (FM) encompasses all activities aimed at improving the efficiency of the working
environment (building management, energy consumption, employee comfort, safety, etc.). These practices
directly influence a company’s economic, environmental, and societal performance [1, 2]. However, the
relationships between these indicators are complex, often implicit, and rarely described in clear quantitative
terms. In addition, company executives need to identify these relationships and their influence on
the overall work environment.
The emergence of Large Language Models (LLMs) and qualitative reasoning approaches (qualitative
influence diagrams, fuzzy logic, Bayesian networks) paves the way for more detailed modeling of dependencies
between indicators, facilitating analysis and strategic decision-making.

Sujet :
Goals
• Automatic extraction of indicators from Quality of Life and Working Conditions (QLWC) documents
(scientific publications, reports, CSR documents, audits).
• Identification of qualitative relationships of influence between these indicators using LLM (e.g.,
“better air quality improves employee productivity”).
• Construction of an influence graph representing these relationships in the form of Qualitative Influence
Diagrams (QID) [3], using two different approaches :
• Fuzzy Logic [4]
• Bayesian Networks [5]
• Analysis of the graph to detect key indicators (those that strongly influence others) and their
influences linking FM practices to overall performance (economic, environmental, societal).
• Prototype decision-making tool for visualizing these graphs and simulating the impact of a change
in indicators.

Bibliography
1. AFNOR, “NF EN 15221-1 : Facility Management — Part 1 : Terms and Definitions,” French Standard,
Association Française de Normalisation, Dec. 2006. Withdrawn on Jul. 13, 2018.
2. Mouvement des Entreprises de France (MEDEF), “GUIDE RSE – Introduction à la Qualité de Vie
et des Conditions de Travail (QVCT),” Paris, France : MEDEF, 2023.
3. Renooij, S., & van der Gaag, L. C. (1998, May). Decision Making in Qualitative Influence Diagrams.
In FLAIRS (pp. 410-414).
4. Klir, G. J., & Yuan, B. (1995). Fuzzy Sets and Fuzzy Logic : Theory and Applications. Prentice
Hall.
5. Koller, D., & Friedman, N. (2009). Probabilistic Graphical Models : Principles and Techniques.
MIT Press.

Profil du candidat :
Expected Skills
• Good knowledge of Python 3 and interest in LLMs.
• Basics of Semantic Web (ontologies, RDF, OWL, SPARQL).
• Interest in fuzzy set theory and probabilistic reasoning.
• Strong motivation for collaboration and teamwork.

Formation et compétences requises :

Adresse d’emploi :
INSA Rouen Normandie
Equipe MIND – LITIS (UR 4108 / FR CNRS 3638)
Avenue de l’Université, BP 8, 76801 Saint-Étienne-du-Rouvray cedex, France

Document attaché : 202511201327_2026_stage.pdf

Stage M2 : Deep metric learning of 2D shape representations

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIRIS
Durée : 5-6 mois
Contact : stefan.duffner@insa-lyon.fr
Date limite de publication : 2026-02-28

Contexte :
In the field of 2D or 3D region of interest (ROI) delineation in medical imaging, combining segmentations of anatomical structures from different sources proves beneficial. This is particularly relevant given the development of multimodal and multi-parametric imaging acquisition devices. Furthermore, combining multiple expert tracings of the same ROI can be useful for evaluating segmentation methods to estimate a consensus ground truth, thereby accounting for intra- or inter-expert variability. Finally, combining multiple segmentation methods can help improve results and their reproducibility. Thus, even though deep learning segmentation methods offer highly accurate results, it is sometimes necessary to combine several architectures or parameterizations to pool segmentation results and reduce variability.
To address these various challenges in segmentation method evaluation and fusion, the CREATIS lab and its collaborators have been developing a method for several years to compute a mutual shape from n masks corresponding to n segmentations of the same region. Within this working group, we initially proposed a variational formulation of the foundational STAPLE algorithm, enabling the evaluation of segmentation methods without a gold standard. The mathematical framework we established, based on domain optimization tools, subsequently allowed us to study different shape metrics, including an original shape metric based on information theory concepts. This metric also proved relevant for the robust fusion of 2D or 3D segmentation methods.

Sujet :
Based on this mathematical framework we aim for developing a deep learning based model to combine several segmentation maps and compare it with our analytical methods.
The aim of this internship is to design a new deep learning architecture similar to N. Courty et al. “Learning Wasserstein Embeddings”. It would be composed of a (convolutional) auto-encoder that is trained to reconstruct segmentation maps combined with a contrastive learning framework to structure the embedding space according to the desired properties of the shape distance (e.g. mutual shape). The advantage of such a model is that it may compute distances between shapes in a Euclidean space (i.e. the distance between the embeddings) and thus more easily compute the final reference shape of the n input segmentation maps by combining the n embeddings and reconstructing the corresponding segmentation map.
There are several scientific challenges that need to be addresses, e.g. the way to constrain the latent space according to the target distance measure, the architecture of the neural network and loss function and the way to combine several embeddings.
In the first place, we will work with binary segmentation maps and later, potentially, extend the approach to probability maps. An advantage would be that a combination based on probability maps would better incorporate uncertainty and, in theory, lead to a better fused reference shape. In this regard, the intern will collaborate with another intern working on the mathematical aspects of the extension of the existing method (of mutual shape) to probability maps.

Profil du candidat :
Good skills in python programming and machine learning, in particular deep learning.
Scientific curiosity and autonomy.

Formation et compétences requises :
Student in M2 or engineering school in computer science or applied mathematics.

Adresse d’emploi :
INSA Lyon
7 Avenue Jean Capelle
69621 Villeurbanne

Document attaché : 202511190724_internship_smip_liris_2026.pdf

Stage M2 — Privacy attacks on synthetic data generation

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire IRISA
Durée : 5-6 mois
Contact : tristan.allard@irisa.fr
Date limite de publication : 2026-03-01

Contexte :
Health data, social networks, electricity consumption… Vast quantities of personal data are collected today by private companies or public organizations. Various legal, monetary, or visibility incentives push data holders to envision sharing versions of the collected datasets that provide both statistical utility and privacy guarantees. Indeed, sharing data at large, e.g., as open data, without jeopardizing privacy, is expected to bring strong benefits (strengthening, e.g., scientific studies, innovation, public policies). Synthetic data generation is a promising approach. First, synthetic data generation algorithms aim at generating datasets that are as close as possible to the original datasets. Either synthetically generated data or the generative models trained over the original data could be shared for supporting elaborate data analysis. Second, substantial progress has been made during the last decade about the privacy guarantees of synthetic data generation algorithms. For example, there exist today synthetic data generation algorithms that satisfy variants of differential privacy, one of the most prominent family of privacy models. However, the wealth of generative algorithms, of privacy models and algorithms, and of parameters makes it hard for non expert users to understand clearly the privacy implications of any given choice. Given the growing number of privacy attacks on machine learning models and especially on generative algorithms, an inappropriate choice can result in catastrophic consequences.

Sujet :
The main goal of this M2 thesis is to design an efficient approach for allowing a data holder to compute the most relevant privacy attacks given the data holder’s choice.

The main tasks of the Master student will be to:
• Study the state-of-the-art about privacy attacks (e.g., membership inference attacks [2, 4, 5]). We will focus on tabular data.
• Formalize the attackers (e.g., adversarial goals, background knowledge, impacts and costs of the attacks, vulnerable algorithms), structure the space of attackers (e.g., generalization/specialization of attackers, implications), and explore efficiently the resulting space for finding the attacks that best illustrate the privacy risks.
• Implement the approach and evaluate its performance.

In addition to the core tasks of the project, the successful candidate will also contribute to the organisation of competitions where the privacy guarantees of synthetic data generation algorithms are challenged.

Profil du candidat :
• The candidate must be in the second year of a master’s degree, or equivalent, in computer science or in a related field.
• The candidate must be curious, autonomous, and rigorous.
• The candidate must be able to communicate in English (oral and written). The knowledge of the French language is not required.
• The candidate must have a strong interest in cybersecurity.
• Skills in machine learning will be appreciated.

Formation et compétences requises :

Adresse d’emploi :
Campus de Beaulieu IRISA/Inria Rennes
263 avenue du Général Leclerc
35042 RENNES cedex

Document attaché : 202511171626_m2-attacks-25_26.pdf

AMITA@IEA/AIE 2026, DL Jan 15 2026

Date : 2026-07-06 => 2026-07-09
Lieu : Kuala Lumpur, Malaysia

CALL FOR PAPERS

Autonomous Machine Intelligence – Theory and Applications (AMITA)
Special Session
39th International Conference on Industrial, Engineering & Other Applications of Applied Intelligent Systems
(IEA/AIE 2026)
Kuala Lumpur, Malaysia
July 06 – 09, 2026
https://www.i-somet.org/iea-aie2026/cfp.html#AMITA

Introduction
Autonomous Machine Intelligence represents a fundamental shift in artificial intelligence, moving beyond narrow task-specific systems toward machines capable of understanding, learning, and acting in complex real-world environments with minimal human supervision. This special session focuses on the theoretical foundations and practical applications of autonomous intelligent systems, including world models, self-supervised learning, energy-based models, and joint embedding predictive architectures.
Recent advances in autonomous AI architecture, particularly in perception-planning-action cycles, multimodal learning, and hierarchical predictive models, have opened new possibilities for building systems that can truly understand and interact with the physical world. This special session aims to provide a forum for researchers and practitioners to present and discuss the latest advances in autonomous machine intelligence, covering theoretical foundations, novel architecture, learning paradigms, and real-world applications across various domains including robotics, autonomous vehicles, healthcare, and industrial systems.

Topics
Relevant topics include, but are not limited to, the following:
Self-supervised learning for autonomous systems
Energy-based models and latent variable models
Joint Embedding Predictive Architectures (JEPA)
World models and predictive learning
Perception-planning-action architectures
Hierarchical and multi-scale representations
Multimodal learning and fusion
Intrinsic motivation and cost functions
Model-predictive control for autonomous systems
Video understanding and prediction
Autonomous robotics and embodied AI
Autonomous vehicles and intelligent transportation
Industrial automation and smart manufacturing
Healthcare applications of autonomous AI
Benchmarks and evaluation metrics for autonomous systems

Session Organizers
Prof. Hiep Xuan Huynh, Ph.D. (HDR) , Can Tho University, Vietnam
Prof. Fabrice Guillet, Ph.D. (HDR), Nantes University, France
A/Prof. Anh Hoang Pham, Ph.D. , VNU-HCM University of Technology (HCMUT), Vietnam
A/Prof. Ngan Thi Tran, VNU – International School (VNUIS), Hanoi, Vietnam

Important Dates
Paper Submission: January 15, 2026
Final Notification: March 12, 2026
Camera Ready: April 25, 2026

Paper Submission
The conference proceedings will be published by Springer in the Lecture Notes in Artificial Intelligence (LNCS/LNAI) series. A paper will be accepted either as a long or as a short paper. Long papers will be allocated 12 pages while short papers will be allocated 6 pages in the proceedings. Submissions will go through a double-blind review process by Program Committee members for originality, significance, technical merit, and clarity of presentation.
Papers must be written by using the Springer template (https://www.springer.com/gp/computer- science/lncs). The submissions will go through a double blind review for originality and scientific quality.
• Sign in: https://cmt3.research.microsoft.com/IEAAIE2026
• Select Special Session: Autonomous Machine Intelligence – Theory and Applications (AMITA)

Contact
Prof. Hiep Xuan Huynh, Ph.D. (HDR), Can Tho University, Vietnam hxhiep@ctu.edu.vn

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Concevoir une base de connaissance permettant d’aligner différentes méthodes d’innovation

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Centre Génie Industriel, IMT Mines Albi
Durée : 6 mois
Contact : myriam.lamolle@mines-albi.fr
Date limite de publication : 2025-12-30

Contexte :
Ce stage s’inscrit dans le projet TABGHA qui se veut un outil de génération démultiplié de concepts hautement valorisables afin de promouvoir l’innovation avec l’aide du CGI (Centre de Génie Industriel) d’IMT Mines Albi (cgi.mines-albi.fr) et le LIASD, Université Paris 8.

Sujet :
Face à la méconnaissance des cultures innovations susceptibles de créer des ressources et le peu d’étude sur la valorisation économique des recherches (spin off, licence, prestation), le transfert de technologie devient crucial.
Pour cela, il faut, à partir d’une technologie générique (souvent sur étagère), multiplier les cas applicatifs (marchés d’atterrissage) pour accroitre les chances de valorisation (et aussi poursuivre les développements). À ce jour, de nombreuses méthodes existent pour générer ces différents cas applicatifs : design thinking, analyse fonctionnelle… Aucune d’entre elles ne faisant l’unanimité, le projet vise à développer une plateforme open-source en « Knowledge As A Service » (KaaS) comme écosystème digital fondé sur des composants logiciels qui se combinent pour collaborer de façon à permettre une évolution graduelle du système au travers de nouvelles contributions et de nouveaux composants fournis par la communauté.
L’objectif sous-jacent est de découvrir dans la base de connaissance constituée des connaissances cachées et de déterminer des analogies afin d’aider des décideurs à trouver de nouveaux domaines d’application de leur concept/produit ou à créer de nouveaux concept/produit.
Vous contribuerez à lever un des verrous scientifiques du projet : concevoir un ou des algorithmes d’alignement de méthodes de design thinking fondés sur l’analyse structurelle et sémantique de graphes de connaissances (ou ontologie modulaire).
Objectifs concrets :
1. Modéliser sous forme d’une ontologie les méthodes C-K, Vianeo (voire TriZ1) ;
2. En suivant une méthode scientifique, concevoir et implémenter des algorithmes permettant d’aligner semi-automatiquement les méthodes citées : les classes, les relations entre ces classes, etc. en explicitant les règles de transformation. Peupler la base de connaissance et évaluer les algorithmes sur le mini-cas d’étude réaliste ;
3. Créer les IHM pour offrir les services :
a) de choix de la méthode par laquelle le projet d’innovation sera développé ;
b) ou d’hybridation de méthodes pour une approche multi-points de vue ;
4. Rédiger un article de conférence internationale avec l’équipe d’encadrement.

Profil du candidat :
Bac+5 (Master 2 ou dernière année d’école d’ingénieur) en Informatique, Mathématiques Appliquées ou domaine connexe

Formation et compétences requises :
Compétences techniques indispensables :
• Maîtrise des concepts de l’IA neuro-symbolique ;
• Capaciter à conceptualiser des méthodes complexes
• Maîtrise d’outils et méthodes d’analyse de graphes
• Excellente compréhension écrite, bonne expression (lecture/rédaction d’articles) et bonne compréhension orale en anglais
Qualités personnelles attendues
• Capacité à proposer des idées algorithmiques dès l’entretien
• Être moteur dans les échanges scientifiques et la validation d’idées
• Goût pour la formalisation mathématique et l’expérimentation méthodique
• Appréciation pour la recherche bibliographique
Un plus :
• Expérience en recherche (stage labo, projet R&D…)
• Connaissance des ontologies et des logiques de description
• Intérêt pour les systèmes à base de raisonnement

Adresse d’emploi :
IMT Mines Albi (Centre de génie industriel), Albi (81)

Document attaché : 202511171603_offreStageM2_sujet1_2026.pdf

Leveraging Vision–Language Models for multi-modal information extraction for Knowledge Graph constructio

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ICube
Durée : 5-6 mois
Contact : florence.leber@engees.unistra.fr
Date limite de publication : 2026-01-15

Contexte :
The restoration or naturalization of hydro-ecosystems is a major challenge for the coming years in order to protect and preserve the quality and quantity of river water. Many restoration works – both recent and historical – have generated large amounts of textual documentation (reports, archival documents, project plans, regulations, scientific articles) and visual material (maps, drawings, aerial/satellite imagery, photographs, cross-sectional charts). However, that material is often unstructured, scattered across institutions, in multiple languages, and not organized to support comparative analysis, learning, or decision-making effectively.

Sujet :
The main research task involves applying and refining VLMs to extract complementary information from visual and textual data. The VLMs should recognize and describe restoration structures, spatial configurations, and temporal stages (before, during, and after restoration) from images. They should extract objectives, methodologies, outcomes, and environmental parameters from text. A key scientific challenge lies in the multi-modal alignment of information linking visual elements and textual references to produce consistent and interpretable outcomes.

Building on these results, the internship will contribute to the enrichment of an already existing structured knowledge model (ontology), describing restoration cases through key properties including intervention type, environmental context, methods, results, constraints, and costs. In addition to enriching the knowledge model, another key point is populating the knowledge model by constructing knowledge graphs with information extracted from images and text, ensuring querying, comparison, and visualization by researchers and practitioners.

Profil du candidat :
Knowledge on data science methods, knowledge representation and reasoning, knowledge graphs.
Languages: Python, java, owl/sparql.
Interest in the application domain, ability to work with experts who are not computer scientists would be appreciated.

Formation et compétences requises :
Student about to graduate a Master or Engineer (Bac + 5) with a specialization in Computer Science.

Adresse d’emploi :
ICube — 300 bd Sébastien Brant – CS 10413 – F-67412 Illkirch Cedex
Meetings at ENGEES, 1 cour des cigarières, Strasbourg.

Document attaché : 202511141617_Sujet_stage_TETRA_VLM.pdf

Intégration de la variabilité temporelle dans la prédiction des communautés phytoplanctoniques à l’aide du deep learning.

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire Oceanographique de Villefranche-sur-me
Durée : 6 mois
Contact : enza.labourdette@imev-mer.fr
Date limite de publication : 2026-01-15

Contexte :
Le phytoplancton regroupe les micro-organismes marins dérivant au gré des courants et capables de
produire de la matière organique grâce à la photosynthèse.
Il joue un rôle essentiel dans le fonctionnement du système Terre : il contribue à environ la moitié de la
photosynthèse planétaire, participe au stockage du carbone à l’échelle climatique via la pompe
biologique, et constitue la base des réseaux trophiques marins.
Mieux comprendre la répartition et la diversité du phytoplancton, en lien avec les conditions physiques
et biogéochimiques de son environnement, est donc fondamental. Cela permet d’estimer plus finement
sa biomasse, son rôle dans les cycles biogéochimiques et d’anticiper les réorganisations induites par les
changements climatiques et océaniques globaux.
Cependant, l’observation directe du phytoplancton à grande échelle demeure limitée, car elle repose sur
des campagnes en mer et des prélèvements coûteux. Les données HPLC (High Performance Liquid
Chromatography), qui permettent d’analyser les pigments photosynthétiques pour quantifier
précisément les communautés phytoplanctoniques, offrent une référence fiable, mais restent
coûteuses et spatialement limitées.
Pour étendre ces observations ponctuelles à l’échelle globale, les satellites d’observation de la couleur
de l’océan constituent un outil clé. Les algorithmes empiriques actuels permettent d’estimer la
composition du phytoplancton à partir des réflectances optiques , mais ils présentent encore
une marge d’erreur importante et ne capturent pas toujours la complexité spatiale et temporelle des
structures océaniques (fronts, tourbillons, etc.).

Sujet :
Ce stage s’inscrit dans la continuité d’une thèse centrée sur la prédiction des Phytoplankton Functional
Types (PFTs) à partir de la couleur de l’eau et de variables satellitaires à l’aide de méthodes de deep
learning.
L’objectif principal est d’améliorer la robustesse et la précision des prédictions en intégrant explicitement
la dimension temporelle des données au moyen de méthodes avancées de deep learning.
Concrètement, cela consiste à exploiter les images satellites des jours ou des semaines précédentes pour
estimer la quantité et la composition du phytoplancton à un instant t donné. En effet, la croissance du
phytoplancton est un processus dynamique, et son état actuel dépend fortement des états antérieurs du
système.
Un pipeline opérationnel est déjà en place :
– les données satellitaires et in situ ont été extraites et prétraitées,
– des modèles de type MLP (Multi-Layer Perceptron) ont été développés et évalués,
– une première étude de la sensibilité, en termes de qualité des prédictions, aux variables d’entrée
et à l’architecture du modèle a été menée,
– une seconde étude, sur l’intégration de la dimension spatiale dans les données d’entrée, est en
cours.
Le stage consistera à poursuivre et à approfondir ces travaux, notamment en :
– explorant de nouvelles architectures de deep learning (par ex. RNN) permettant de mieux
capturer la structure temporelle des données ;
– évaluant l’impact de cette intégration sur la qualité des prédictions de PFTs ;
– affinant l’interprétation des modèles pour mieux comprendre les liens entre conditions
environnementales et composition des communautés phytoplanctoniques.
Ce travail contribuera directement à l’amélioration des produits satellitaires de distribution
phytoplanctonique à l’échelle globale, utiles pour le suivi de la santé des écosystèmes marins et la
gestion durable des ressources océaniques.

Objectifs du Stage :
– Compréhension de la problématique biologique.
– Étude des relations entre les propriétés optiques de l’eau et les PFTs.
– Prise en main et optimisation du pipeline existant, de la sélection et du traitement des données
jusqu’à leur exploitation dans un modèle de deep learning.
– Analyse de la variabilité spatio-temporelle : quantifier l’impact de l’intégration des dimensions
spatiale et temporelle sur la prédiction des PFTs.
– Mise en forme et valorisation des résultats pour une utilisation dans des travaux de recherche à
publier.

Profil du candidat :

Formation et compétences requises :
– Intérêt marqué pour la recherche et les sciences marines.
– Maîtrise du langage Python.
– Connaissances en deep learning (PyTorch).
– Des notions en écologie, biologie marine ou océanographie seraient un atout.

Adresse d’emploi :
181 chemin du Lazaret Villefranche-sur-Mer, France

Document attaché : 202511140931_STAGE 2026 – ANNONCE.pdf