Postdoctoral position: Automatic selection of predictive algorithms by meta-learning for time series forecasting

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIFO, Orléans, France
Durée : 1 year (around 2600€
Contact : marcilio.desouto@univ-orleans.fr
Date limite de publication : 2025-04-04

Contexte :
The JUNON project is granted from the Centre-Val de Loire region through an ARD program (Ambition Recherche Développement). The project is lead by BRGM (Bureau de Recherches Géologiques et Minières) and involvesUniversity of Orléans (LIFO), University of Tours (LIFAT), CNRS, INRAE, ATOS and ANTEA companies. The main goal of JUNON is to develop digital twins to improve the monitoring, understanding and prediction of environmental resources evolution and phenomena, for a better management of natural resources. Digital twins will allow us to virtually reproduce natural processes and phenomena using combinations of AI and environmental tools. They will rely on geological and meteorological data (time series) and knowledge, as well as physical-based models.

JUNON project is organized into 5 work packages (WP):

1. User’s needs and geological knowledge for ground water
2. User’s needs and biological/chemical knowledge about pollutants and greenhouse gases
3. Data management and data mining
4. Times series predictions
5. Aggregation and realization of digital twins

The postdoc program will be supervised by LIFO-CA and will be in WP4, focusing on time series forecasting. There will be strong interactions inside WP4 with other postdocs and PhD in LIFO or LIFAT, with WP1 and WP3 (BRGM) with engineers. The CA team is a dynamic team with 9 PhD students. We work on Machine Learning, Data Mining and Deep Learning and are interested, among other things, in knowledge integration and explicability in ML/DM methods.

Sujet :
In many domains, various algorithms can be considered candidates for solving particular problems. One of the most challenging tasks is to predict when one algorithm is better than another for solving a given problem. Traditional approaches to predicting algorithm performance often involve costly trial-and-error procedures. Other approaches require specialized knowledge, which is not always easy to acquire.

Meta-learning approaches have emerged as effective solutions, capable of automatically predicting algorithm performance for a given problem (Bradzil et al., 2022;Vanschoren, 2019). Thus, such approaches could help non-expert users in the algorithm selection task. There are different interpretations of the term “meta-learning”. Here we use the term “meta-learning” to refer to the automatic knowledge generation process that relates the performance of algorithms – in particular machine learning and data preprocessing techniques – to the characteristics of the problem (i.e., the characteristics of its datasets).

As an automatic algorithm selection technique, meta-learning does not imply being limited to machine learning algorithms. Therefore, the application of this approach to “classical” predictive models is also envisaged. This typically requires the intervention of experts to parameterize these models in order to build the set of metadata necessary for the “meta-learner”. The BRGM in particular and, more broadly, the consortium of this proposal, has many forces capable of parameterizing these different models (empirical, physical or statistical), thus opening the scope to all environmental predictive techniques.

By using meta-learning, our objective is therefore to provide a framework for linking a set of time-series data representing an environmental problem, possibly associated with a priori knowledge, with a pipeline of data mining algorithms (e.g., preprocessing and supervised learning algorithms). In particular, it will aim to give environmental experts a certain autonomy, in the context of the construction of digital twins, and thus limit their dependence on digital experts on this issue (Garcia et al., 2018; Talkhi et al., 2024).

Bibliography

Brazdil, P., Van Rijn, J. N., Soares, C., & Vanschoren, J. (2022). Metalearning: applications to automated machine learning and data mining. Springer Nature.
Garcia, L. P., Lorena, A. C., de Souto, M. C., & Ho, T. K. (2018, August). Classifier recommendation using data complexity measures. In 2018 24th International Conference on Pattern Recognition (ICPR) (pp. 874-879). IEEE.

Talkhi, N., Akhavan Fatemi, N., Jabbari Nooghabi, M., Soltani, E., & Jabbari Nooghabi, A. (2024). Using meta-learning to recommend an appropriate time-series forecasting model. BMC Public Health, 24(1), 148.

Vanschoren, J. (2019). Meta-learning. Automated machine learning: methods, systems, challenges, 35-61.

Profil du candidat :
– Good experience in data analysis and machine learning is required.
– Experiences/knowledge in time series prediction and environmental science are welcome.
– Curiosity and ability to communicate (in English or French) and to work in collaboration with scientists in environmental science.
– Ability to propose and validate new solutions and to publish the results.
– Autonomy and good organizational skills.

Candidates are invited to send a pdf file that contains:
– A short CV, with descriptions of your thesis and experiences in machine learning, including deep learning(including projects you were involved in)
– A motivation letter
– contact information for two references
– Deadline for submission of application: March 15th, 2025.

Formation et compétences requises :
PhD in machine learning (computer science or applied mathematics)

Adresse d’emploi :
LIFO (Laboratoire d’Informatique Fondamentale d’Orléans) – Constraints and Machine learning (CA) team.

Reconnaissance et Suivi de Démarche à Travers des Vidéos Multi-Vues

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : GREYC
Durée : 5 mois
Contact : alexis.mortelier@unicaen.fr
Date limite de publication : 2025-04-04

Contexte :
La reconnaissance de démarche est une technique biométrique utilisée pour identifier ou suivre une personne en analysant ses mouvements. Ce domaine trouve des applications dans la sécurité, la surveillance, et l’interaction homme-machine. Cependant, les défis restent nombreux, notamment dans des environnements réels où des variations d’angle de caméra, de vêtements ou de conditions d’éclairage peuvent affecter la robustesse des algorithmes.

Ce stage s’inscrit dans les travaux récents sur l’analyse et le suivi de démarche en exploitant des approches modernes basées sur des données spatio-temporelles et des modèles d’apprentissage automatique. Des études comme celles sur OpenGait, Gait Parsing Sequence (GPS) et la reconnaissance en conditions de changement de vêtements fournissent des bases pour ce sujet

Sujet :
Pour ce stage, votre objectif sera de développer un système capable de reconnaître une personne à partir de sa démarche, indépendamment des variations de vêtements ou d’angles de caméra, et de suivre cette personne à travers plusieurs vidéos en exploitant des caractéristiques robustes et discriminantes.

Vous commencerez par explorer les méthodes existantes. Analysez les approches actuelles en reconnaissance de démarche, notamment des solutions comme GaitSet, GPS et OpenGait. Étudiez les ensembles de données pertinents, tels que GREW, CASIA-B, et Gait3D, pour comprendre les défis et les méthodologies en vigueur. Identifiez les limites des solutions actuelles et les opportunités d’amélioration.

Ensuite, vous concevrez et implémenterez un pipeline de reconnaissance basé sur des architectures modernes, telles que les réseaux convolutionnels 3D ou les transformers. Intégrerez des mécanismes spécifiques pour traiter les changements d’apparence (par exemple, les variations de vêtements) et les variations d’angles. Vous utiliserez des frameworks comme PyTorch ou TensorFlow pour entraîner et optimiser votre modèle, en veillant à garantir robustesse et efficacité.

Après le développement, vous évaluerez votre modèle en réalisant des tests approfondis sur des ensembles de données publics. Comparerez ses performances avec les méthodes de l’état de l’art, en termes de précision, de robustesse et de temps de calcul. Vous identifierez les points forts et faibles de votre approche pour orienter d’éventuelles améliorations.

Enfin, vous documenterez votre travail en rédigeant un rapport détaillé en présentant les méthodologies utilisées, les résultats obtenus, et proposerez des pistes d’amélioration.

N’oubliez pas d’intégrer des idées pour des applications pratiques, notamment dans des contextes en temps réel. Soyez méthodique, rigoureux et force de proposition tout au long de ce stage.

Profil du candidat :
Master/Ingénieur dernière année en informatique, traitement du signal et des images, biométrie

Formation et compétences requises :
– apprentissage profond (modèles spatio-temporels, CNN, transformers).
– traitement d’images
– familiarité avec les concepts de biométrie ou d’analyse de mouvement serait un plus.
– compétences en programmation Python, OpenCV, Tensorflow, PyTorch.

Adresse d’emploi :
laboratoire GREYC site de Caen (Campus 2, 6 boulevard maréchal juin) et/ou Saint-Lô (IUT GON, 120 Rue de l’Exode, 50000 Saint-Lô)

Document attaché : 202501141533_Stage_M2__2025_biométrie_SAFE.pdf

Revisiting PCA with norm-ratio sparsity penalties

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : INRIA Opis
Durée : 5 mois
Contact : laurent.duval@ifpen.fr
Date limite de publication : 2025-04-04

Contexte :
In the context of the ERC MAJORIS, and in collaboration with IFPEN company, the aim of this internship is to investigate the problem of sparse principal component analysis (PCA), with norm-ratio sparsifying penalties. Online information:

https://jobs.inria.fr/public/classic/fr/offres/2024-08488

Sujet :
Principal component analysis (PCA) is a workhorse in linear dimensionality reduction [Jol02]. It is widely applied in exploratory data analysis, visualization, data preprocessing).
Principal components are usually linear combinations of all input variables. For high-dimension data, this may involve input variables that contribute very little to the understanding. Finding the few directions in space that explain best observations is desirable. Sparse PCA overcomes this disadvantage by finding linear combinations that contain just a few input variables, by adding sparsity constraints [CR24,ZX18]. One of such is formulated (cf. lasso) with the help of an absolute norm penalty/regularization. In [MBPS10], one designs this matrix factorization problem as:

minimize_{alpha} || X – D alpha ||^2_F + lambda|| alpha ||_{1,1}

where: X = [x_1,…,x_n] is the matrix of data vectors; D is a square matrix from a suitable basis set, ||.||_F denotes the Frobenius norm; ||.||_{1,1} denotes the sum of the magnitude of matrix coefficients, lambda is a positive penalty weight.

A penalty such as ||.||_{1,1} is 1-homogeneous. This may only weakly emulate the sheer count of non-zero entries of a matrix, that would be scale-invariant or 0-homogeneous.

Recently, the SOOT/SPOQ family of penalties has been developed in our research group, as smooth emulations to the scale-invariant lp/lq norm ratios. The latter had been used for a while, as stopping-criteria, penalties or “continuous” sparsity count estimators [HR09]. They have been used successfully for the restoration/deconvolution/source separation of sparse signals [CCDP20,RPD+15].

The goal of the internship is to investigate the resolution of sparse PCA models, by replacing the standard l1 norm by such norm ratios. Convergence analysis of the proposed optimization algorithm, imlementation and validation over public benchmarks will be conducted.

[CCDP20] Afef Cherni, Emilie Chouzenoux, Laurent Duval, and Jean-Christophe Pesquet. SPOQ ℓp-over-ℓq regularization for sparse signal
recovery applied to mass spectrometry. IEEE Trans. Signal Process., 68:6070–6084, 2020.
[CR24] Fan Chen and Karl Rohe. A new basis for sparse principal component analysis. J. Comp. Graph. Stat.), 33(2):421–434, 2024.
[HR09] N. Hurley and S. Rickard. Comparing measures of sparsity. IEEE Trans. Inform. Theory, 55(10):4723–4741, Oct. 2009.
[Jol02] I. T. Jolliffe. Principal component analysis. Springer Series in Statistics, 2nd edition, 2002.
[MBPS10] Julien Mairal, Francis Bach, Jean Ponce, and Guillermo Sapiro. Online learning for matrix factorization and sparse coding. J. Mach.
Learn. Res., 11:19–60, 2010.
[RPD+15] A. Repetti, M. Q. Pham, L. Duval, E. Chouzenoux, and J.-C. Pesquet. Euclid in a taxicab: Sparse blind deconvolution with smoothed
ℓ1/ℓ2 regularization. IEEE Signal Process. Lett., 22(5):539–543, May 2015.
[ZCD23] Paul Zheng, Emilie Chouzenoux, and Laurent Duval. PENDANTSS: PEnalized Norm-ratios Disentangling Additive Noise, Trend
and Sparse Spikes. IEEE Signal Process. Lett., 30:215–219, 2023.
[ZX18] Hui Zou and Lingzhou Xue. A selective overview of sparse principal component analysis. Proc. IEEE, 106(8):1311–1320, August
2018.

Profil du candidat :
We seek for a talented candidate in Master 1, Master 2, or Engineering studies

Formation et compétences requises :
A solid background in optimization, and signal processing, and a strong motivation for research and innovation. Experience in Python is necessary.

Adresse d’emploi :
INRIA Saclay

Document attaché : 202501132057_main-IFPEN-INRIA-master-pca-spoq-sparse-revisited.pdf

The LITIS lab looks for two post-doctoral researchers in the framework of the IMMOTEP project “Optimal Work Environment Contribution Measurement Index for High-Performance Companies”

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LITIS (UR 4108) / INSA Rouen Normandie
Durée : 2 x 12 months
Contact : cecilia.zanni-merk@insa-rouen.fr
Date limite de publication : 2025-04-04

Contexte :
Formerly referred to as “General Services,” the concept of the work environment encompasses the integrated system of support mechanisms designed to enhance workplace life. It contributes significantly to value creation across three dimensions: employees (well-being at work), organizations (productivity and cost control), and the broader environment (e.g., carbon footprint reduction). In France alone, this sector generates over 100 billion euros annually (excluding rents) and sustains more than 1 million jobs, the majority of which are non-relocatable (https://www.idet.fr/etudes/etude-2020-lenvironnement-de-travail-en-france/).

The COVID-19 pandemic marked a pivotal shift in work practices, elevating the role of workplace management teams from a commodity-based service to a strategic function integral to organizational performance. This transformation has highlighted several critical challenges in reshaping the relationship between companies and their employees:

1. Challenges for Companies:
o Rising levels of employee disengagement, compounded by post-Covid effects, declining productivity, and increased absenteeism and turnover.
o The imperative to reduce the carbon footprint of workplace environments presents a significant challenge.
o The absence of standardized methods for mapping and measuring employee- and building-related services, which set back efforts to enhance productivity and cost efficiency.

2. Challenges for Employees:
o A growing demand for meaningful work and alignment with organizational values.
o The pursuit of work-life balance and overall well-being.
o Increased recognition and consideration of second-line workers.

Despite its growing importance, limited formal research exists on the interplay between the efficiency of a company’s work environment and its economic, environmental, and societal performance. Consequently, organizational leaders often undervalue the role of the work environment in driving overall performance. Enhanced assessment methods are essential to improve the work environment’s efficiency and optimize its contributions to the economic, environmental, and societal value generated by companies.

Sujet :
The IMMOTEP project aims to achieve the following objectives:

1. Measure the Contribution of the Work Environment:
o Enhance the ability to attract and retain employees.
o Foster employee commitment, health, and productivity.
o Optimize economic control and efficiency of the working environment.
o Improve environmental sustainability and reduce the carbon footprint.
2. Develop a Comparative Index:
o Create a multi-dimensional index enabling comparisons across similar organizations.
o Integrate dimensions of economic, social, and environmental performance into a single framework.
3. Provide Future-Oriented Recommendations:
o Offer actionable insights to improve the value of the work environment across diverse sectors.

To meet these objectives, the project will focus on the following strategies:
• Comprehensive Cost and Impact Assessment: Evaluate the cost implications of the work environment, its carbon footprint, and its influence on employee engagement.
• Development of Industry-Recognized Indicators: Design a standardized data collection framework and define operational indicators tailored
to the unique requirements of various sectors.
• Data-Driven Insights for Value Creation: Collect and analyze extensive data to identify areas where value can be generated within the work environment at the organizational or building level. This analysis will provide a foundation for implementing targeted, impactful actions.

Profil du candidat :
We are seeking two highly motivated post-doctoral researchers with expertise in one or more of the
following areas: machine learning, deep learning, data mining, knowledge-graph mining, or ontology development.

Successful candidates will join the LITIS laboratory at INSA Rouen
Normandie, collaborating with a diverse and interdisciplinary team of students and postdoctoral researchers in a vibrant and dynamic environment.

Formation et compétences requises :
This interdisciplinary research requires proficiency in at least one of the following domains:
1. Technical Expertise:
o Machine learning or deep learning techniques.
o Development and exploitation of ontologies or knowledge graphs.
o Experience in designing hybrid AI approaches (inductive and deductive reasoning) for decision-making is considered an advantage.
2. Soft Skills:
o Strong communication abilities.
o Proficiency in English is essential; fluency in French would be a valuable asset.

Position Details
• Duration: 2 x 12 months, with the possibility of renewal depending on project needs and funding.
• Start Date: Immediate.

Interested candidates are encouraged to send:
1. A comprehensive CV.
2. A brief email summarizing your motivation and context for applying to this position.
Applications will be reviewed on a rolling basis, so early submissions are strongly encouraged.

Adresse d’emploi :
INSA Rouen Normandie

Amélioration de la performance des modèles d’apprentissage fédéré à l’Aide de métaheuristiques

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LAMSADE – Dauphine PSL
Durée : 4 à 6 mois
Contact : sana.mrabet@dauphine.psl.eu
Date limite de publication : 2025-04-04

Contexte :
L’apprentissage fédéré (Federated Learning, FL) est une approche de l’apprentissage machine décentralisé où les modèles sont entraînés localement sur plusieurs appareils sans partager les données brutes, préservant ainsi la confidentialité et réduisant les coûts de communication. Ce paradigme est de plus en plus utilisé dans des domaines sensibles comme la santé, la finance ou encore les appareils connectés. Cependant, il pose des défis uniques, notamment :
• L’hétérogénéité des données entre les participants,
• L’optimisation efficace des modèles sur des ensembles de données distribués et déséquilibrés,
• La communication coûteuse entre les participants et le serveur central.

Sujet :
Ce sujet vise à développer des approches innovantes pour améliorer la performance des modèles d’apprentissage fédéré. Il s’agira d’explorer des méthodes hybrides mêlant l’intégration de méta-heuristiques (ex. : colonies de fourmis, algorithmes génétiques) pour :
• Identifier dynamiquement les sous-ensembles d’appareils participant à chaque cycle, maximisant ainsi la performance globale du modèle tout en respectant les contraintes du système.
• Optimiser la sélection dynamique des modèles locaux contribuant efficacement à la performance globale.
• Optimiser les stratégies d’agrégation des poids pour gérer le déséquilibre des données et améliorer la convergence.

Profil du candidat :
L’offre s’adresse à un étudiant en M2 ou équivalent en Informatique, avec bonnes connaissances en Machine Learning et en programmation Python.

Formation et compétences requises :

Adresse d’emploi :
LAMADE – Université Paris Dauphine – PSL
Place du Maréchal de Lattre de Tassigny – 75775 PARIS Cedex 16

Document attaché : 202501131418_Projet master recherche – FL – 2025.pdf

Knowledge-Based Language Models

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : DIG team, Télécom Paris, Institut Polytechnique de
Durée : 3 years
Contact : nils.holzenberger@telecom-paris.fr
Date limite de publication : 2025-04-04

Contexte :

Sujet :
Hello,

We are hiring 2 PhD students to work on combining language models with structured data, starting from September 2025, at Telecom Paris, Institut Polytechnique de Paris.

Large Language Models are amazing, and with our research project, we aim to make them even more amazing! Our project will connect large language models to structured knowledge such as knowledge bases or databases. With this,

1. language models will stop hallucinating

2. language models can be audited and updated reliably

3. language models will become smaller and thus more eco-friendly and deployable

We work in the DIG team at Telecom Paris, one of the finest engineering schools in France, and part of Institute Polytechnique de Paris — ranked 38th in the world by the QS ranking. The institute is 45 min away from Paris by public transport, and located in the green of the Plateau de Saclay.

Excited about joining us? Tick these boxes:

1. Have a good background in natural language processing, machine learning, and knowledge representation

2. Have a master’s degree (or equivalent)

3. Be of European nationality (imposed by our sponsor, the French Ministry of Armed Forces)

Check out our Web site to apply: https://suchanek.name/work/research/kb-lm/index.html

Fabian Suchanek & Nils Holzenberger

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
19 place Marguerite Perey, 91120 Palaiseau, France

Offre de thèse – modèles génératifs profonds pour la génération procédurale et la génération procédurale inverse

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IGN-ENSG, LASTIG, Université Gustave Eiffel
Durée : 36 mois
Contact : nicolas.audebert@ign.fr
Date limite de publication : 2025-03-16

Contexte :
L’entraînement de modèles d’apprentissage profond pour l’interprétation d’images aériennes et satellitaires requiert de grandes quantités de données annotées. Toutefois, si d’importants volumes de données d’Observation de la Terre (OT) sont disponibles grâce aux satellites européens Sentinel-2 et aux programmes français d’imagerie SPOT et BDORTHO, cette masse de données est non-étiquetée. En effet, peu d’images de télédétection sont annotées avec des information sémantiques utiles pour entraîner des modèles profonds. Ce phénomène est d’autant plus critique pour la cartographie d’urgence: les catastrophes naturelles sont des événements rares, ce qui réduit d’autant les images disponibles.
Pour pallier ces difficultés, la recherche en intelligence artificielle s’est intéressée à la génération de bases de données d’images synthétiques. La popularisation de l’intelligence artificielle dite générative permet ainsi de produire des jeux de données annotés, en générant des images diverses dans des configurations connues. La génération procédurale est en outre un procédé historiquement bien connu dans la communauté du jeu vidéo, permettant de produire rapidement de grands mondes virtuels en trois dimensions.

Sujet :
L’objectif principal de cette thèse est de combiner les forces de l’apprentissage profond et de la génération procédurale basée grammaire pour les données géospatiales.
La génération procédurale désigne les algorithmes de création de contenu, en particulier pour le jeu vidéo. Ces techniques permettent de créer des mondes virtuels cohérents , notamment pour la modélisation et la simulation du réel, La génération procédurale connaît un regain de popularité car elle permet de produire de grands volumes de données synthétiques annotées, sur lesquels entraîner des réseaux de neurones profonds . Historiquement, la génération procédurale s’est appuyé sur quatre grande familles de méthodes: les approches basées exploration, les approches par satisfaction de contraintes, les méthodes basées grammaire et les approches par apprentissage.
Les approches basées grammaire (ou assimilées, par exemple basées système-L ) sont particulièrement intéressantes. Elles se fondent sur un langage formel qui définit quelles sont les instances acceptables des objets à générer. Cette grammaire permet d’inclure une connaissance experte et peut être considérée comme interprétable. Cependant, définir manuellement une grammaire requiert une certaine expertise et implique souvent une approche itérative par essai-erreur. En comparaison, la génération procédurale par apprentissage statistique permet d’apprendre à générer des objets à partir d’un corpus existant. Toutefois, les modèles appris sont susceptibles de générer des objets inacceptables (par exemple, des maisons sans aucune porte). Par ailleurs, les approches récentes, notamment par apprentissage profond, nécessitent des jeux de données de grande taille pour exceller, ce qui n’est pas toujours possible. En particulier, les entités géographiques urbaines (typiquement les routes et les bâtiments) doivent respecter des a priori géométriques forts qui peuvent être complexes à satisfaire.
Ce sujet de thèse s’intéresse ainsi à l’hybridation entre la génération procédurale symbolique, en particulier exploitant les grammaires, et l’apprentissage profond. Des approches hybrides peuvent permettre d’apprendre à partir de moins d’exemples, tout en respectant mieux les contraintes imposées sur les données par une grammaire.
L’objectif est double:
1. Dans un premier temps, il s’agit de concevoir des architectures génératives de réseaux de neurones dont les sorties sont contraintes par une grammaire. Ainsi, le modèle sera garanti de ne générer que des objets acceptables vis à vis d’une grammaire fournie par l’usager . Plus précisément, on s’intéressera:
• à contraindre les cartes de segmentation d’un modèle prédictif à respecter une grammaire sur l’agencement spatial des objets,
• ou bien à des modèles génératifs qui ne peuvent produire que des objets acceptables selon une grammaire imposée, par exemple de bâtiments.
2. Dans un second temps, de développer des modèles capables d’inférer tout ou partie d’une grammaire à partir d’un corpus d’exemples (génération procédurale inverse et inférence de grammaire). En particulier, on cherchera:
• des méthodes capables d’apprendre automatiquement les symboles terminaux du langage, notamment à l’aide de l’apprentissage de prototypes ,
• puis à des méthodes capables de déduire les règles de production de la grammaire .
Ces techniques de génération seront appliquées à divers types de données géospatiales en 2D et 3D pour la génération de villes . En particulier, les applications pourront inclure les plans cadastraux (emprises au sol de parcelles et de bâtiments), des modèles 3D de bâtiments (produits manuellement ou extraits du Lidar HD) ou des cartes d’occupation du sol.

Profil du candidat :
Le ou la candidate idéale dispose d’une formation de niveau bac+5 (master ou ingénieur) dans l’un des domaines suivants: science des données, jeu vidéo, géomatique. Il ou elle démontre une expérience de la programmation, en particulier avec le langage Python. Une connaissance des outils de gestion projet informatique, notamment Git, sera appréciée. Une bonne maîtrise de l’anglais (écrit et oral) est un pré-requis. Sans être indispensable, une première expérience avec la génération procédurale, les modèles profonds génératifs ou les données géospatiales est un plus.

Formation et compétences requises :

Adresse d’emploi :
LASTIG, IGN-ENSG, 6-8 avenue Blaise Pascal, Champs-sur-Marne

Document attaché : 202501071048_doctorant.pdf

Hybrid AI for the prevention of toxic smoke inhalation risk among firefighters

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Connected Health Lab (Ecole d’ingénieurs ISIS) Ca
Durée : 36
Contact : francis.faux@univ-jfc.fr
Date limite de publication : 2025-02-28

Contexte :
The aim of the project is to trace the toxic products “inhaled” by firefighters during their various interventions.

Sujet :
The first stage of the thesis will be to make the real-time acquisition system operational and reliable,
and to contextualize it according to the type of fire (apartment, forest).
The second objective of the thesis will be:
– to study hybrid online and multi-source learning models for modeling the toxicity of different types of fire, in order to infer the duration
of exposure to different toxic products (taking into account the randomness of the context)
– to develop a medical decision support tool under uncertainty to identify at-risk firefighter profiles.
Given a firefighter’s history, it will be possible to deduce the arguments that point to a certain level
of risk associated with the development of different diseases. To this end, work on Bipolar Layered argumentative
Frameworks could be adapted to temporal data and, if necessary, enriched.

Profil du candidat :
We are looking for a candidate with a strong AI background, particularly in machine learning. Knowledge of uncertainty modeling in AI will be highly appreciated.

Formation et compétences requises :
Master2

Adresse d’emploi :
Ecole d’ingénieurs ISIS, rue Firmin Oulès, 81100 Castres (france)

Document attaché : 202501061422_Thesis-AI_hybrid.pdf

Modèle de langue à base de connaissance experte pour l’extraction d’information médicale à partir de données non structurées.

Offre en lien avec l’Action/le Réseau : TIDS/– — –

Laboratoire/Entreprise : Institut de Recherche en Informatique de Toulouse
Durée : 5-6 mois
Contact : yohann.chasseray@irit.fr
Date limite de publication : 2025-03-01

Contexte :
Le stage sera réalisé au sein de l’équipe SIG, dans le département Gestion de Données de l’Institut de Recherche en Informatique de Toulouse (IRIT). L’IRIT est un laboratoire de recherche constitué de chercheurs en informatique, développant notamment des travaux autour du traitement automatique du langage, de la gestion des données, des connaissances et de l’extraction d’informations.
Le stage sera localisé sur le Campus de Castres, dans les locaux de l’école d’ingénieurs ISIS, qui forme des ingénieurs en informatique dans le domaine de la santé numérique. Des déplacements à Toulouse dans les locaux de l’IRIT sont à prévoir.

Sujet :
Les grands modèles de langue qui n’ont de cesse de se perfectionner représentent un outil puissant pour la compréhension fine des connaissances dans un contexte général mais également de manière plus spécialisée, dans des domaines métier spécifiques comme celui de la santé médicale. Notamment, les grands modèles de langue (LLMs) constituent une base solide pour la détection d’entités nommées (NER) ou de relation (RE) qui sont des tâches majeures pour le traitement des données médicales.
L’objectif de ce stage est donc de proposer des méthodes d’extraction d’entités nommées s’appuyant à la fois sur les LLMs (Phi-3 [1], BERT [2]) et sur des ontologies médicales (SNOMED CT [3], UMLS [4]), qui renferment des informations sémantiques précises sur les entités et relations recherchées. Pour cela, deux approches sont envisagées, s’appuyant toutes les deux sur les grands modèles de langues :
(A) Une approche qui utilise le contexte, permettant de guider un modèle de langue génératif en sélectionnant les types d’entités les plus pertinents dans une ontologie pour l’extraction d’entités nommées ou de relations.
(B) Une approche plus intégrée, visant cette fois à inclure directement la représentation ontologique au cours d’une étape de fine-tuning d’un modèle de langue et à interroger directement le modèle, sans fournir de contexte préalable.
En fonction des avancées, les résultats pourront faire l’objet d’une soumission à la conférence CLEF 2025 (https://clef2025.clef-initiative.eu/).

Profil du candidat :
Etudiant(e) en formation de niveau Bac+4/5, avec une spécialisation en Informatique ou Data Science et présentant des compétences en analyse, traitement et représentation de données.

Formation et compétences requises :
Les compétences suivantes seront fortement appréciées pour mener à bien les missions associées au sujet de stage :
• Bonnes connaissances en programmation (Python) et traitement automatique du langage.
• Connaissances de base sur les ontologies et bases de connaissances.
• Familiarités avec les modèles d’apprentissage automatique en général et le modèle transformer en particulier.

Adresse d’emploi :
Campus Universitaire, Rue Firmin Oulès, 81104 Castres
yohann.chasseray@irit.fr

Document attaché : 202501051355_Offre_de_stage_ISIS_IRIT.pdf

Postdoctoral researcher, IGDR, Rennes, France: use of deep learning and simulation to extract geometric parameters of filaments in microscopy images.

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Institute of Genetics and Development of Rennes
Durée : 24 months
Contact : helene.bouvrais@univ-rennes.fr
Date limite de publication : 2025-03-01

Contexte :
We wish to welcome a highly motivated postdoctoral researcher in our multi-disciplinary team at the Institute of Genetics and Development of Rennes (https://igdr.univ-rennes.fr/en/). Research in the team focuses on the robustness of cell division through fluorescence microscopy and quantitative biophysical approaches, using the nematode model organism Caernorhabditis elegans. The ongoing development of an automated microscope allows the team to extend its studies to human cell lines in culture, without synchronization, a key requirement for the studying division robustness.

Sujet :
The recruited postdoctoral researcher will be an integral part of the on-going research project, funded by the ANR and focused on the study of the regulatory role of microtubule rigidity in cell division. He/she will work on the development of a tool based on artificial intelligence to extract microtubule curvatures from 3D fluorescence microscopy images. In particular, the candidate will use synthetic image generation through simulation (e.g., Cytosim) and deep learning techniques. For this, he/she will have access to local computing servers as well as remote ones (e.g., Jean Zay). Filament curvature measurements will help reveal potential disruptions in microtubule rigidity during genetic perturbation or across cell lines with deregulated expression of candidate proteins involved in regulating microtubule rigidity.

Profil du candidat :

Formation et compétences requises :
– Hold a PhD degree in computer science, machine learning or applied mathematics.
– Have strong theoretical and practical skills in deep learning.
– Master programming languages such as Python.
– Have proven experience in implementing deep learning in image analysis.
– Be able to work collaboratively within a research team ; be a team player.
– Have strong organizational and communication skills, including the ability to express oneself and write in English.
– Ability to work independently.
– Have an interest in working in a multidisciplinary environment (cellular biology, fluorescence microscopy, soft matter physics, bioinformatics)

Adresse d’emploi :
IGDR (Institute of Genetics and Developemnt of Rennes), CNRS, Univ. Rennes, UMR 6290
2 avenue du Professeur Léon Bernard, 35000 Rennes cedex, France

Document attaché : 202501031145_Annonce_post-doc_informatique_ANR_Micenn_EN.pdf