Ingénieure ou Ingénieur de recherche et développement en Imagerie Computationnelle et apprentissage profond

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IMT Atlantique
Durée : 24 mois
Contact : francois.rousseau@imt-atlantique.fr
Date limite de publication : 2025-11-16

Contexte :
Grande école d’ingénieur généraliste de l’IMT-Institut Mines-Télécom, premier groupe d’écoles d’ingénieurs de France, IMT Atlantique a pour ambition d’accompagner les transitions, de former des ingénieurs responsables et mettre l’excellence scientifique et technique au service de l’enseignement, de la recherche et de l’innovation.

Dans le cadre du projet ICI (Imagerie Computationnelle pour l’IRM ultra-bas champ), qui vise à à développer un système d’imagerie IRM portable et accessible, fondé sur une approche computationnelle et sur l’intelligence artificielle, en collaboration avec le CHU de Brest et l’entreprise Multiwave (Marseille), nous recrutons Ingénieure ou un Ingénieur au sein de notre département Science des données (DSD).

Sujet :
En collaboration avec l’équipe du projet, vous développez et maintenez la chaine logicielle de reconstruction et d’analyse d’images IRM ultra-bas champ (Python, PyTorch). Vous assurez la gestion, le stockage et la diffusion des données IRM acquises sur la machine ultra-bas champ en lien avec les partenaires du projet. Vous accompagnez les chercheurs et ingénieurs dans l’utilisation des outils développés et la valorisation des résultats (documentation, packaging, diffusion open source). Vous contribuez à la coordination technique du projet avec les partenaires industriels (Mutiwave) et académiques (LaTIM, CHU de Brest).

Profil du candidat :
Diplôme Bac + 5 (ingénieur ou master) en informatique, traitement du signal, mathématiques appliquées ou équivalent.

Formation et compétences requises :
· Solide expérience en développement Python et PyTorch (ou frameworks équivalents).
· Bonnes connaissances en traitement et reconstruction d’images, idéalement en imagerie médicale.
· Pratique des outils de gestion de code (Git, GitLab, CI/CD).
· Connaissances des formats et bibliothèques liés à l’IRM (NumPy, NiBabel, TorchIO).
· Autonomie, rigueur et sens du travail collaboratif.

Adresse d’emploi :
IMT Atlantique, Campus de Brest

Informations & contacts :

Sur le contenu du poste : François ROUSSEAU – Enseignant Chercheur : francois.rousseau@imt-atlantique.fr

Sur les aspects administratifs/RH : Fanny BERNARD – Assistante recrutement – fanny.bernard@imt-atlantique.fr

Date limite de candidature : 16/11/2025
Début du contrat souhaité : Janvier 2026
Entretien : Au fil de l’eau

Lien : https://institutminestelecom.recruitee.com/o/ingenieure-ou-ingenieur-de-recherche-et-developpement-en-imagerie-computationnelle-et-apprentissage-profond-pour-lirm-ultra-bas-champ-cdd-24-mois

M2 Internship – Analysis and improvement of estimators of low-rank tensor models

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRIT (Toulouse)
Durée : 5 to 6 months
Contact : henrique.goulart@irit.fr
Date limite de publication : 2025-11-16

Contexte :

Sujet :
We are seeking candidates for a 5- to 6-month internship on the analysis and improvement of estimators of low-rank tensor models, with the possibility of a PhD thesis afterwards (a PhD funding is secured). This subject is situated at the interface between mathematics and computer science, having applications in several domains, notably in data science and machine learning.

A detailed description can be found at: https://cloud.irit.fr/s/hZnoJgiopaqMkdV

Profil du candidat :
M2 student strongly motivated by mathematics and its application to statistical inference and machine learning. Prior knowledge on tensor algebra and on random matrix theory are a strong plus. Good communication skills (both oral and written) in English are required, notably for reading, writing and presenting scientific papers.

Formation et compétences requises :

Adresse d’emploi :
IRIT (Institut de Recherche en Informatique de Toulouse), site ENSEEIHT (2 rue Charles Camichel, Toulouse).

AI WILD West – Artificial Intelligence Workshop on Inverse problem, Learning, Imaging & Data science in the West

Annonce en lien avec l’Action/le Réseau : TIDS

Thème :

problèmes inverses, apprentissage, recherche translationnelle, imagerie, science de donnée

Présentation :

AI WILD West a pour l\’objectif de rassembler des chercheurs travaillant à l’interface entre intelligence artificielle, problèmes inverses et mathématiques appliquées, avec des applications en recherche translationnelle (Bio/Santé), en imagerie et en science des données. Il vise à offrir aux jeunes chercheurs l’opportunité de présenter leurs travaux, d’échanger avec l’ensemble de la communauté scientifique, et de favoriser de nouvelles collaborations dans un cadre convivial et stimulant. Cet événement a pour ambition de renforcer les échanges interdisciplinaires et de contribuer à la dynamique scientifique nationale, en animant également la recherche dans un pôle académique en région. Il est par ailleurs associé au RT MAIAGES.

Du : 2026-01-29

Au : 2026-01-30

Lieu : CentraleSupélec – Rennes Campus

Site Web : https://https://wildwestworkshop.github.io

[SAVE THE DATE] GREENDAYS 2026, 10-11 mars à Sophia Antipolis

Date : 2026-03-10 => 2026-03-11
Lieu : Sophia Antipolis

Bonjour à tous,

Notez-le bien dans vos agendas, nous organisons les GreenDays inter-GdR 2026 à Sophia Antipolis les mardi 10 et mercredi 11 mars 2026.

Les GreenDays sont des journées thématiques francophones organisées en collaboration avec les GDR GPL, IASIS, MaDICS, RSD, ROD, SOC2 et le GDRS EcoInfo et avec le soutien des PEPR Cloud et Réseaux du futur.

La problématique d’un numérique éco-responsable recouvre plusieurs facettes qui sont adressées de différentes manières suivant les communautés scientifiques. Les GreenDays permettent d’aborder ces différents angles de vue grâce à des exposés invités et des propositions soumises par les participants et participantes.

Plus d’informations bientôt.

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Modélisation hybride d’arbre fruitier en 3D associant structure-fonction et deep-learning – Application à la conception de vergers agro-écologiques

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : UMR AGAP Institut, CIRAD, Montpellier
Durée : 3 ans
Contact : frederic.boudon@cirad.fr
Date limite de publication : 2025-11-30

Contexte :
Les modèles structure-fonction (FSPM) permettent d’analyser finement le fonctionnement et la croissance des plantes dans des environnements fluctuants. Ils simulent l’interaction entre la structure modulaire de la plante, sa géométrie (distribution spatiale 3D) et les processus physiologiques en interaction avec l’environnement (Prusinkiewicz, 2004 ; Fourcaud et al., 2008 ; Louarn et Song, 2020). Ses modèles considèrent que la structure tridimensionnelle des plantes constitue à la fois son interface avec l’environnement et un déterminant majeur de leur croissance et leur productivité (Costes et al., 2006). Ils sont particulièrement mobilisés pour l’étude et la modélisation d’arbres fruitiers (Costes et al., 2008 ; Allen et al., 2005 ; Lescourret et al., 2011 ; Boudon et al., 2020) où la compétition interne pour les ressources entre organes exige des représentations dynamiques et spatialisées. Toutefois, un obstacle majeur réside dans la paramétrisation de ces modèles, qui limite leur adoption pour le développement d’outils d’aide à la décision en gestion de vergers (DeJong, 2019) et, plus largement, freine leur diffusion au sein de la communauté scientifique.

La télédétection, associée aux méthodes d’analyse basées sur le deep learning, offre un fort potentiel pour caractériser le fonctionnement et la croissance des plantes, et ainsi contribuer à la paramétrisation des modèles structure-fonction. L’émergence récente de capteurs variés (caméras RGB, LiDAR, thermiques, etc.) et de plateformes d’acquisition (drones, phénomobiles, etc.) ouvre de nouvelles perspectives pour le phénotypage haut débit et le suivi des vergers. Plusieurs initiatives récentes visent à automatiser le phénotypage des arbres, mais elles se focalisent généralement sur un nombre restreint de traits, souvent insuffisant pour alimenter un FSPM de manière complète (Streit et al., 2023).

Dans ce contexte, l’objectif de cette thèse est de développer une nouvelle génération de modèles FSPM d’arbres fruitiers, hybridant les approches classiques de modélisation avec des données haut débit issues du phénotypage en verger. En s’appuyant notamment sur les projets Gardens et PHENET, l’utilisation de FSPM paramétrés par des données de phénotypage haut débit permettra de produire des jumeaux numériques et de caractériser et explorer “in silico” la résilience de systèmes agricoles.

Un enjeu majeur des approches FSPM est de pouvoir reproduire et simuler des structures topologiques décrivant l’architecture de la plante et leurs informations géométriques ou physiologiques associées, notamment issues de la télédétection. Ces structures peuvent être décomposées en séquences qui représentent par exemple la ramification le long des axes de la plante. Des méthodes statistiques dédiées (Guédon et al., 2001) ont été développées par la communauté scientifique pour pouvoir analyser et simuler ces séquences. Récemment, les grands modèles de langage (LLM) ont connu une évolution remarquable, révolutionnant le traitement du langage naturel et trouvant des applications dans divers domaines scientifiques. Ils reposent principalement sur des architectures de réseaux de neurones avancées, parmi lesquelles les Transformers (Vaswani et al., 2017) jouent un rôle central. Contrairement aux modèles séquentiels classiques comme les RNN (Recurrent Neural Networks) ou les LSTM (Long Short-Term Memory), les Transformers exploitent un mécanisme d’attention permettant de traiter les données en parallèle plutôt que de manière séquentielle. Ce mécanisme, dit Self-Attention, pondère l’importance de chaque élément dans une séquence par rapport aux autres, améliorant ainsi la capture des dépendances à longue portée dans une séquence. Par ailleurs, d’autres approches comme les Autoencodeurs Variationnels (VAE) (Kingma & Welling, 2013) sont également utilisées dans certains modèles de génération, notamment pour apprendre des représentations latentes structurées du langage. Ces approches ouvrent des perspectives prometteuses pour leur application en modélisation FSPM, notamment en facilitant l’apprentissage et la génération automatique de structures arborescentes représentant l’architecture des plantes.

Sujet :
Lors de la première étape, ce projet s’appuiera sur des modèles FSPM existants dans la plateforme libre OpenAlea, tels que MappleT (pommier), dans lesquels la structure des arbres est modélisée par des processus stochastiques (p. ex. semi-chaînes de Markov cachées) calibrés à partir de relevés de croissance dont l’acquisition et l’analyse sont coûteuses en temps et en expertise. Une première étape de la thèse consistera à étendre un modèle d’arbre FSPM en générant la structure arborescente à l’aide de “Large Language Models” (LLM), notamment des réseaux Transformers ou des Variational Autoencoders (VAE), afin de générer la succession des organes et leurs types associés. Les observations et les sorties des modèles statistiques déjà calibrés serviront à entraîner et à paramétrer ces réseaux.

Une deuxième étape sera de simuler un modèle FSPM d’arbre fruitier contraint par des données LIDAR, issues des projets PHENET (pommier) et Gardens (citrus). A partir de ces scans, des structures topologiques augmentées d’information géométriques seront générées. Et les réseaux entraînés précédemment seront étendus pour permettre la génération de ces structures et de leurs informations associées. Un enjeu majeur consistera à développer des codages relatifs (paramétrisation des entités en fonction des paramètres du nœud parent) adaptés à ces informations pour garantir une génération séquentielle cohérente des éléments de l’architecture.

Enfin, dans une troisième étape, nous explorerons l’utilisation de descriptions partielles à certaines phases clés de la croissance. Par exemple, des reconstructions LiDAR pourraient être disponibles uniquement au début et à la fin d’un cycle de croissance, tandis que des observations plus approximatives (vols de drone estimant le volume global de la plante, distribution spatiale de la végétation, etc.) pourraient être obtenues à intervalles réguliers. Dans ce contexte, un apprentissage par renforcement sera utilisé pour calibrer les modèles de croissance. Ce cadre permettra d’alterner entre l’exploitation des données existantes pour optimiser la génération de la structure et l’exploration de nouvelles configurations possibles

Dans une dernière étapes, ces méthodes seront appliquées pour reconstruire un verger en 3D à partir d’informations de phénotypage (drones, LIDAR) puis de simuler des processus biophysiques difficilement observables comme l’interception de la lumière ou le stress hydrique afin d’estimer la résilience du système, la distribution des ressources dans ces systèmes (lumière, eau) et de proposer de nouveaux traits (dans notre cas représentés comme des paramètres de modèles), de nouvelles variétés, et de nouvelles conduites (densité d’arbres, taille, association d’espèces) permettant d’optimiser ces systèmes.

Profil du candidat :
Titulaire d’un master en informatique ou d’un diplôme d’ingénieur avec des compétences en deep learning et idéalement en 3D.
Programmation en Python et C/C++.
Intérêt pour la biologie et l’agronomie.

Formation et compétences requises :

Adresse d’emploi :
CIRAD, Phenomen team, UMR AGAP
Avenue Agropolis TA A-108 / 01
34398 Montpellier Cedex 5, France

Document attaché : 202510131618_these-assimilation-vf-2025.pdf

Deep similarity learning on remote sensing data for glacier ice flow prediction.

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LaSTIG – IGN
Durée : 6 mois
Contact : alexandre.hippert-ferrer@ign.fr
Date limite de publication : 2026-02-01

Contexte :

Sujet :
Voir offre au format pdf.

Profil du candidat :
Niveau Master 2 en Machine Learning / Télédétection / Sciences de la Terre

Formation et compétences requises :
The internship requires a genuine interest and curiosity in Earth sciences (glaciology and climate science in particular). Strong skills in statistical mathematics, deep learning, computer vision, and remote sensing are expected. Proficiency in one or more machine learning libraries in Python (PyTorch, Tensorflow, Keras) is expected. A good level of scientific computing with Python (scipy, scikit-learn, numpy) is also required.

Adresse d’emploi :
LaSTIG Laboratory, IGN/ENSG, 6-8 avenue Blaise Pascal, 77420 Champs-sur-Marne, France.

Document attaché : 202510081015_fiche_stageM2_GlacierDeepLearning_eng.pdf

Interprétabilité en IA des séries temporelles radar

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LISTIC
Durée : 4-6 mois
Contact : christophe.lin-kwong-chon@univ-smb.fr
Date limite de publication : 2026-04-30

Contexte :

Sujet :
Interprétabilité en IA des séries temporelles radar

(descriptions détaillées dans la fiche attachée)

Profil du candidat :
Des compétences en machine learning sont attendues.
Le stage portera exclusivement sur la programmation en Python.
Une expérience en télédétection radar, géophysique des volcans
ou en explicabilité/interprétabilité de l’IA serait un atout.

Formation et compétences requises :

Adresse d’emploi :
LISTIC, 5 chemin de bellevue, 74944, Annecy le Vieux

Document attaché : 202510060816_Sujet – Interprétabilité en IA des séries temporelles radar.pdf

CFP HPCoSiMC special session at PDP 2026

Date : 2026-03-25 => 2026-03-27
Lieu : Cluj-Napoca, Romania

Dear colleagues,

We invite submissions to the HPCoSiMC special session at the PDP 2026 International Conference:
https://sites.google.com/view/hpcosimc-2026/

The HPCoSiMC special session addresses the growing need for efficient similarity computations on massive and complex sequence-type data. It highlights innovative strategies that harness modern parallel platforms to overcome two key bottlenecks: handling large-scale data volumes and managing computational complexity. Topics of interest include methods for exploiting advanced parallel architectures, algorithmic adaptations enabling scalable execution, and user-oriented approaches that simplify access to high-performance computing for non-experts.

The objective of this special session is to gather contributions addressing the challenges of similarity studies, particularly those arising from computational complexity and the massive volume of data involved. We encourage submissions on the following topics, which are not limited to the following:

* Parallelization models and algorithms for large-scale similarity analysis on massive datasets
* Leveraging accelerator architectures such as GPUs and FPGAs to optimize similarity computations
* Hybrid and heterogeneous computing approaches (multi-core, distributed-memory, GPU, accelerators) for similarity tasks
* Implicit parallelism models for similarity analysis on sequence-type data, workflow design, and optimization for large-scale similarity pipelines
* Tools and frameworks to make HPC-based similarity analysis accessible to non-specialists
* Benchmarking and performance evaluation of similarity algorithms on modern parallel architectures
* Dimensionality reduction and indexing methods for scalable similarity search
* Novel and emerging applications that benefit from similarity computations
* Embedding techniques for efficient similarity search
* New methods and metrics for measuring similarity across application domains

Important dates:
* Paper submission : November 28th 2025
* Author notification : January 5th 2026
* Camera-ready copy : January 26th 2026

Submission guidelines

Authors should submit a full paper not exceeding 8 pages in the IEEE Conference proceedings format (IEEEtran, double-column, 10pt) and follow format guidelines found at https://www.ieee.org/conferences/publishing/templates.html.

For submission, please refer to the Easychair submission system as indicated in the Main Conference webpage (https://www.pdp2026.org/submission/cfp), and make sure that you select the “High Performance Computing for Similarity on Massive & Complex data (HPCoSiMC)” track.

Double-bind review: the first page of the paper should contain only the title and abstract; in the reference list, references to the authors own work should appear as “omitted for blind review” entries.

A special issue in a peer-reviewed international journal is planned, featuring a selection of the best papers from the HPCoSiMC session.
We look forward to your submissions
Mike Gowanlock, Verónika Peralta and Sophie Robert (special session co-chairs)

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Self-improving AI Agents for Recommendation

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Criteo AI Lab Paris
Durée : 36 mois
Contact : p.gallinari@criteo.com
Date limite de publication : 2026-03-31

Contexte :
As part of its ongoing transformation into an agentic-ready platform, Criteo is spearheading the integration of agentic AI across its full portfolio. These systems are already being deployed to automate internal operations, assist clients in the management and optimization of advertising campaigns, and to power personal shopping agents—autonomous assistants that act on behalf of end-users. These agents must reason, remember, and act autonomously in environments characterized by uncertainty, variability, and scale.
To fulfill this vision, one of the most pressing challenges is adaptability. Our agents must function across an extremely heterogeneous client base — each with unique product catalogs, optimization targets, and interface constraints while interacting with users and inferring their intents.

Sujet :
The objective of the PhD is to explore adaptation strategies to multiple and heterogeneous environments and user segments for an agentic system. In our setting these environments might correspond to different partners characterized by their own catalog, objective and strategy while user segments refer to user preferences or needs. We will restrict our scope to language-only agents and emphasize practical assistant scenarios.

In most scenarios, adaptation to new environments and to user intents shall leverage simple and computationally costless strategies, while being able to adapt for scarce data contexts available for these new settings. Adaptation places a significant demand on the system’s memory, which must be more than a static repository of facts. It must be an adaptive memory system, capable of restructuring and reprioritizing information as the user’s context evolves. Therefore, self-adaptation is intrinsically linked to memory management. The goal is to endow the agent with the ability to learn how to manage its own memory in response to a changing environment and user. The PhD will start to investigate different memory strategies and their potential for handling adaptation to new environments and to user interaction. We will explore mechanisms for the agent to develop learned policies for memory operations. Key research questions include:

• Learned Retention and Forgetting: How can an agent learn what information is critical to retain versus what is obsolete and should be forgotten or archived?

• Adaptive Retrieval Strategies: Can an agent learn the most effective way to query its memory? We will explore how the system can dynamically choose between different retrieval methods (e.g., vector-based RAG, evolving LLM context), based on the task.

• Automated Memory Summarization: How can the system “reflect” on its interaction history to create higher-level insights?
We will investigate techniques for the agent to periodically summarize streams of memories into more abstract knowledge (e.g., consolidating multiple shopping interactions into a persistent preference like “user prefers sustainable brands”).

Adaptation mechanism shall also be an element contributing to the planning mechanism of the agent: how can an agent make decisions when the goal is weakly defined, the feedback is sparse, and the environment varies by client? This is particularly relevant in domains like travel planning or multi-product recommendations, where a “one-size-fits-all” approach is neither feasible nor desirable. To complement memory-based methods, off-line reinforcement learning strategies could be considered.

Profil du candidat :
We are looking for a motivated researcher with a strong foundation in machine learning, natural language processing, applied maths. Familiarity with large language models, transformers, reinforcement learning, or continual learning will be considered a strong asset. Above all, we are seeking someone who is excited by the challenge of bringing intelligent agents to life in practical, high-impact applications.

Formation et compétences requises :
Master degree in computer science or applied mathematics, Engineering school. Background and experience in machine learning.

Adresse d’emploi :
Criteo AI Lab Paris

Document attaché : 202510021236_2025-10-Criteo-PhD proposal-Agents-LLMs.pdf