Poste MCF IA/Machine Learning

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIFO (équipe Contraintes et Apprentissage), Univer
Durée : Prise de fonction au
Contact : guillaume.cleuziou@univ-orleans.fr
Date limite de publication : 2025-04-04

Contexte :
L’Université d’Orléans recrute un(e) Maître de Conférences en Informatique (section CNU 27) pour un poste au sein du Laboratoire d’Informatique Fondamentale d’Orléans (LIFO, équipe Contraintes et Apprentissage). Le poste est rattaché à l’UFR Sciences et Techniques.

Informations pratiques :
· Date de prise de fonction : 1er septembre 2025.
· Lieu : Université d’Orléans, Département Informatique, UFR-ST.
· Dépôt des candidatures : exclusivement via l’application Galaxie.

Pour plus d’informations :

Contact scientifique : Marcílio Pereira de Souto (responsable de l’équipe CA) Email : marcilio.desouto@univ-orleans.fr

Contact enseignement : Laure Kahlem (responsable du Département Informatique) Email : laure.kahlem@univ-orleans.fr

Sujet :
Le/la candidat(e) retenu(e) rejoindra l’équipe Contraintes et Apprentissage (CA) du LIFO, reconnue pour ses travaux en intelligence artificielle et apprentissage automatique. Les thématiques prioritaires incluent :

· Apprentissage supervisé, non supervisé et par renforcement ;
· Explicabilité des modèles et intégration de connaissances ;
· Modèles de langage de grande taille (LLM) et traitement automatique du langage (TAL) ;
· Apprentissage profond et sous contraintes.

Profil d’enseignement :
Le/la candidat(e) contribuera à l’enseignement dans les domaines suivants :

· Programmation avancée (Java), conception orientée objet, frameworks web, services web ;
· Intelligence artificielle, apprentissage automatique et profond.

Profil du candidat :

Formation et compétences requises :
Qualifications requises :

· Doctorat en informatique ou domaine connexe.
· Solides compétences en enseignement et recherche.
· Capacité à encadrer des étudiants (stages, projets de recherche).

Adresse d’emploi :
Université d’Orléans, LIFO, Département Informatique, UFR-ST.

Docteur(e) en Intelligence Artificielle – Spécialisation Systèmes Multi-Agents en IA

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Prime Analytics
Durée : CDI
Contact : majdi.ghorbel@telecom-paris.fr
Date limite de publication : 2025-04-04

Contexte :
Prime Analytics est une société française spécialisée dans la transformation digitale et l’analyse de données. Nous aidons les entreprises, notamment dans le secteur bancaire, à optimiser leurs processus grâce à des outils modernes comme Alteryx, Power BI, et Tableau. Nous développons des solutions basées sur l’intelligence artificielle pour résoudre des problèmes complexes liés à la finance, à la gestion des risques, et à la conformité.

Sujet :
Développement et optimisation de solutions innovantes en intelligence artificielle, centrées sur les systèmes multi-agents ou les graphes orientés, dans un contexte financier. Les missions incluent la conception d’algorithmes avancés, l’intégration de frameworks spécialisés (Neo4j, PyTorch Geometric, JADE), et la publication de recherches de haut niveau.

Profil du candidat :
Nous recherchons un(e) docteur(e) ayant récemment soutenu sa thèse ou sur le point de le faire, passionné(e) par les systèmes multi-agents ou la théorie des graphes, avec une expertise démontrée en intelligence artificielle et un intérêt marqué pour le secteur financier

Formation et compétences requises :
Doctorat en intelligence artificielle, science des données, ou domaine connexe.
Expérience en apprentissage automatique (y compris renforcement multi-agents ou réseaux de neurones sur graphes).
Maîtrise de frameworks spécialisés tels que JADE, PyTorch Geometric, Neo4j, ou LangChain.
Connaissance des techniques de modélisation et d’explicabilité des systèmes IA.
Solides compétences en programmation (Python, C++) et en gestion de projets collaboratifs.
Fort intérêt ou expérience préalable dans le secteur financier.

Adresse d’emploi :
Paris, France (télétravail partiel possible jusqu’à 3 jours par semaine)

Postdoctoral position: Automatic selection of predictive algorithms by meta-learning for time series forecasting

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIFO, Orléans, France
Durée : 1 year (around 2600€
Contact : marcilio.desouto@univ-orleans.fr
Date limite de publication : 2025-04-04

Contexte :
The JUNON project is granted from the Centre-Val de Loire region through an ARD program (Ambition Recherche Développement). The project is lead by BRGM (Bureau de Recherches Géologiques et Minières) and involvesUniversity of Orléans (LIFO), University of Tours (LIFAT), CNRS, INRAE, ATOS and ANTEA companies. The main goal of JUNON is to develop digital twins to improve the monitoring, understanding and prediction of environmental resources evolution and phenomena, for a better management of natural resources. Digital twins will allow us to virtually reproduce natural processes and phenomena using combinations of AI and environmental tools. They will rely on geological and meteorological data (time series) and knowledge, as well as physical-based models.

JUNON project is organized into 5 work packages (WP):

1. User’s needs and geological knowledge for ground water
2. User’s needs and biological/chemical knowledge about pollutants and greenhouse gases
3. Data management and data mining
4. Times series predictions
5. Aggregation and realization of digital twins

The postdoc program will be supervised by LIFO-CA and will be in WP4, focusing on time series forecasting. There will be strong interactions inside WP4 with other postdocs and PhD in LIFO or LIFAT, with WP1 and WP3 (BRGM) with engineers. The CA team is a dynamic team with 9 PhD students. We work on Machine Learning, Data Mining and Deep Learning and are interested, among other things, in knowledge integration and explicability in ML/DM methods.

Sujet :
In many domains, various algorithms can be considered candidates for solving particular problems. One of the most challenging tasks is to predict when one algorithm is better than another for solving a given problem. Traditional approaches to predicting algorithm performance often involve costly trial-and-error procedures. Other approaches require specialized knowledge, which is not always easy to acquire.

Meta-learning approaches have emerged as effective solutions, capable of automatically predicting algorithm performance for a given problem (Bradzil et al., 2022;Vanschoren, 2019). Thus, such approaches could help non-expert users in the algorithm selection task. There are different interpretations of the term “meta-learning”. Here we use the term “meta-learning” to refer to the automatic knowledge generation process that relates the performance of algorithms – in particular machine learning and data preprocessing techniques – to the characteristics of the problem (i.e., the characteristics of its datasets).

As an automatic algorithm selection technique, meta-learning does not imply being limited to machine learning algorithms. Therefore, the application of this approach to “classical” predictive models is also envisaged. This typically requires the intervention of experts to parameterize these models in order to build the set of metadata necessary for the “meta-learner”. The BRGM in particular and, more broadly, the consortium of this proposal, has many forces capable of parameterizing these different models (empirical, physical or statistical), thus opening the scope to all environmental predictive techniques.

By using meta-learning, our objective is therefore to provide a framework for linking a set of time-series data representing an environmental problem, possibly associated with a priori knowledge, with a pipeline of data mining algorithms (e.g., preprocessing and supervised learning algorithms). In particular, it will aim to give environmental experts a certain autonomy, in the context of the construction of digital twins, and thus limit their dependence on digital experts on this issue (Garcia et al., 2018; Talkhi et al., 2024).

Bibliography

Brazdil, P., Van Rijn, J. N., Soares, C., & Vanschoren, J. (2022). Metalearning: applications to automated machine learning and data mining. Springer Nature.
Garcia, L. P., Lorena, A. C., de Souto, M. C., & Ho, T. K. (2018, August). Classifier recommendation using data complexity measures. In 2018 24th International Conference on Pattern Recognition (ICPR) (pp. 874-879). IEEE.

Talkhi, N., Akhavan Fatemi, N., Jabbari Nooghabi, M., Soltani, E., & Jabbari Nooghabi, A. (2024). Using meta-learning to recommend an appropriate time-series forecasting model. BMC Public Health, 24(1), 148.

Vanschoren, J. (2019). Meta-learning. Automated machine learning: methods, systems, challenges, 35-61.

Profil du candidat :
– Good experience in data analysis and machine learning is required.
– Experiences/knowledge in time series prediction and environmental science are welcome.
– Curiosity and ability to communicate (in English or French) and to work in collaboration with scientists in environmental science.
– Ability to propose and validate new solutions and to publish the results.
– Autonomy and good organizational skills.

Candidates are invited to send a pdf file that contains:
– A short CV, with descriptions of your thesis and experiences in machine learning, including deep learning(including projects you were involved in)
– A motivation letter
– contact information for two references
– Deadline for submission of application: March 15th, 2025.

Formation et compétences requises :
PhD in machine learning (computer science or applied mathematics)

Adresse d’emploi :
LIFO (Laboratoire d’Informatique Fondamentale d’Orléans) – Constraints and Machine learning (CA) team.

Reconnaissance et Suivi de Démarche à Travers des Vidéos Multi-Vues

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : GREYC
Durée : 5 mois
Contact : alexis.mortelier@unicaen.fr
Date limite de publication : 2025-04-04

Contexte :
La reconnaissance de démarche est une technique biométrique utilisée pour identifier ou suivre une personne en analysant ses mouvements. Ce domaine trouve des applications dans la sécurité, la surveillance, et l’interaction homme-machine. Cependant, les défis restent nombreux, notamment dans des environnements réels où des variations d’angle de caméra, de vêtements ou de conditions d’éclairage peuvent affecter la robustesse des algorithmes.

Ce stage s’inscrit dans les travaux récents sur l’analyse et le suivi de démarche en exploitant des approches modernes basées sur des données spatio-temporelles et des modèles d’apprentissage automatique. Des études comme celles sur OpenGait, Gait Parsing Sequence (GPS) et la reconnaissance en conditions de changement de vêtements fournissent des bases pour ce sujet

Sujet :
Pour ce stage, votre objectif sera de développer un système capable de reconnaître une personne à partir de sa démarche, indépendamment des variations de vêtements ou d’angles de caméra, et de suivre cette personne à travers plusieurs vidéos en exploitant des caractéristiques robustes et discriminantes.

Vous commencerez par explorer les méthodes existantes. Analysez les approches actuelles en reconnaissance de démarche, notamment des solutions comme GaitSet, GPS et OpenGait. Étudiez les ensembles de données pertinents, tels que GREW, CASIA-B, et Gait3D, pour comprendre les défis et les méthodologies en vigueur. Identifiez les limites des solutions actuelles et les opportunités d’amélioration.

Ensuite, vous concevrez et implémenterez un pipeline de reconnaissance basé sur des architectures modernes, telles que les réseaux convolutionnels 3D ou les transformers. Intégrerez des mécanismes spécifiques pour traiter les changements d’apparence (par exemple, les variations de vêtements) et les variations d’angles. Vous utiliserez des frameworks comme PyTorch ou TensorFlow pour entraîner et optimiser votre modèle, en veillant à garantir robustesse et efficacité.

Après le développement, vous évaluerez votre modèle en réalisant des tests approfondis sur des ensembles de données publics. Comparerez ses performances avec les méthodes de l’état de l’art, en termes de précision, de robustesse et de temps de calcul. Vous identifierez les points forts et faibles de votre approche pour orienter d’éventuelles améliorations.

Enfin, vous documenterez votre travail en rédigeant un rapport détaillé en présentant les méthodologies utilisées, les résultats obtenus, et proposerez des pistes d’amélioration.

N’oubliez pas d’intégrer des idées pour des applications pratiques, notamment dans des contextes en temps réel. Soyez méthodique, rigoureux et force de proposition tout au long de ce stage.

Profil du candidat :
Master/Ingénieur dernière année en informatique, traitement du signal et des images, biométrie

Formation et compétences requises :
– apprentissage profond (modèles spatio-temporels, CNN, transformers).
– traitement d’images
– familiarité avec les concepts de biométrie ou d’analyse de mouvement serait un plus.
– compétences en programmation Python, OpenCV, Tensorflow, PyTorch.

Adresse d’emploi :
laboratoire GREYC site de Caen (Campus 2, 6 boulevard maréchal juin) et/ou Saint-Lô (IUT GON, 120 Rue de l’Exode, 50000 Saint-Lô)

Document attaché : 202501141533_Stage_M2__2025_biométrie_SAFE.pdf

Revisiting PCA with norm-ratio sparsity penalties

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : INRIA Opis
Durée : 5 mois
Contact : laurent.duval@ifpen.fr
Date limite de publication : 2025-04-04

Contexte :
In the context of the ERC MAJORIS, and in collaboration with IFPEN company, the aim of this internship is to investigate the problem of sparse principal component analysis (PCA), with norm-ratio sparsifying penalties. Online information:

https://jobs.inria.fr/public/classic/fr/offres/2024-08488

Sujet :
Principal component analysis (PCA) is a workhorse in linear dimensionality reduction [Jol02]. It is widely applied in exploratory data analysis, visualization, data preprocessing).
Principal components are usually linear combinations of all input variables. For high-dimension data, this may involve input variables that contribute very little to the understanding. Finding the few directions in space that explain best observations is desirable. Sparse PCA overcomes this disadvantage by finding linear combinations that contain just a few input variables, by adding sparsity constraints [CR24,ZX18]. One of such is formulated (cf. lasso) with the help of an absolute norm penalty/regularization. In [MBPS10], one designs this matrix factorization problem as:

minimize_{alpha} || X – D alpha ||^2_F + lambda|| alpha ||_{1,1}

where: X = [x_1,…,x_n] is the matrix of data vectors; D is a square matrix from a suitable basis set, ||.||_F denotes the Frobenius norm; ||.||_{1,1} denotes the sum of the magnitude of matrix coefficients, lambda is a positive penalty weight.

A penalty such as ||.||_{1,1} is 1-homogeneous. This may only weakly emulate the sheer count of non-zero entries of a matrix, that would be scale-invariant or 0-homogeneous.

Recently, the SOOT/SPOQ family of penalties has been developed in our research group, as smooth emulations to the scale-invariant lp/lq norm ratios. The latter had been used for a while, as stopping-criteria, penalties or “continuous” sparsity count estimators [HR09]. They have been used successfully for the restoration/deconvolution/source separation of sparse signals [CCDP20,RPD+15].

The goal of the internship is to investigate the resolution of sparse PCA models, by replacing the standard l1 norm by such norm ratios. Convergence analysis of the proposed optimization algorithm, imlementation and validation over public benchmarks will be conducted.

[CCDP20] Afef Cherni, Emilie Chouzenoux, Laurent Duval, and Jean-Christophe Pesquet. SPOQ ℓp-over-ℓq regularization for sparse signal
recovery applied to mass spectrometry. IEEE Trans. Signal Process., 68:6070–6084, 2020.
[CR24] Fan Chen and Karl Rohe. A new basis for sparse principal component analysis. J. Comp. Graph. Stat.), 33(2):421–434, 2024.
[HR09] N. Hurley and S. Rickard. Comparing measures of sparsity. IEEE Trans. Inform. Theory, 55(10):4723–4741, Oct. 2009.
[Jol02] I. T. Jolliffe. Principal component analysis. Springer Series in Statistics, 2nd edition, 2002.
[MBPS10] Julien Mairal, Francis Bach, Jean Ponce, and Guillermo Sapiro. Online learning for matrix factorization and sparse coding. J. Mach.
Learn. Res., 11:19–60, 2010.
[RPD+15] A. Repetti, M. Q. Pham, L. Duval, E. Chouzenoux, and J.-C. Pesquet. Euclid in a taxicab: Sparse blind deconvolution with smoothed
ℓ1/ℓ2 regularization. IEEE Signal Process. Lett., 22(5):539–543, May 2015.
[ZCD23] Paul Zheng, Emilie Chouzenoux, and Laurent Duval. PENDANTSS: PEnalized Norm-ratios Disentangling Additive Noise, Trend
and Sparse Spikes. IEEE Signal Process. Lett., 30:215–219, 2023.
[ZX18] Hui Zou and Lingzhou Xue. A selective overview of sparse principal component analysis. Proc. IEEE, 106(8):1311–1320, August
2018.

Profil du candidat :
We seek for a talented candidate in Master 1, Master 2, or Engineering studies

Formation et compétences requises :
A solid background in optimization, and signal processing, and a strong motivation for research and innovation. Experience in Python is necessary.

Adresse d’emploi :
INRIA Saclay

Document attaché : 202501132057_main-IFPEN-INRIA-master-pca-spoq-sparse-revisited.pdf

The LITIS lab looks for two post-doctoral researchers in the framework of the IMMOTEP project “Optimal Work Environment Contribution Measurement Index for High-Performance Companies”

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LITIS (UR 4108) / INSA Rouen Normandie
Durée : 2 x 12 months
Contact : cecilia.zanni-merk@insa-rouen.fr
Date limite de publication : 2025-04-04

Contexte :
Formerly referred to as “General Services,” the concept of the work environment encompasses the integrated system of support mechanisms designed to enhance workplace life. It contributes significantly to value creation across three dimensions: employees (well-being at work), organizations (productivity and cost control), and the broader environment (e.g., carbon footprint reduction). In France alone, this sector generates over 100 billion euros annually (excluding rents) and sustains more than 1 million jobs, the majority of which are non-relocatable (https://www.idet.fr/etudes/etude-2020-lenvironnement-de-travail-en-france/).

The COVID-19 pandemic marked a pivotal shift in work practices, elevating the role of workplace management teams from a commodity-based service to a strategic function integral to organizational performance. This transformation has highlighted several critical challenges in reshaping the relationship between companies and their employees:

1. Challenges for Companies:
o Rising levels of employee disengagement, compounded by post-Covid effects, declining productivity, and increased absenteeism and turnover.
o The imperative to reduce the carbon footprint of workplace environments presents a significant challenge.
o The absence of standardized methods for mapping and measuring employee- and building-related services, which set back efforts to enhance productivity and cost efficiency.

2. Challenges for Employees:
o A growing demand for meaningful work and alignment with organizational values.
o The pursuit of work-life balance and overall well-being.
o Increased recognition and consideration of second-line workers.

Despite its growing importance, limited formal research exists on the interplay between the efficiency of a company’s work environment and its economic, environmental, and societal performance. Consequently, organizational leaders often undervalue the role of the work environment in driving overall performance. Enhanced assessment methods are essential to improve the work environment’s efficiency and optimize its contributions to the economic, environmental, and societal value generated by companies.

Sujet :
The IMMOTEP project aims to achieve the following objectives:

1. Measure the Contribution of the Work Environment:
o Enhance the ability to attract and retain employees.
o Foster employee commitment, health, and productivity.
o Optimize economic control and efficiency of the working environment.
o Improve environmental sustainability and reduce the carbon footprint.
2. Develop a Comparative Index:
o Create a multi-dimensional index enabling comparisons across similar organizations.
o Integrate dimensions of economic, social, and environmental performance into a single framework.
3. Provide Future-Oriented Recommendations:
o Offer actionable insights to improve the value of the work environment across diverse sectors.

To meet these objectives, the project will focus on the following strategies:
• Comprehensive Cost and Impact Assessment: Evaluate the cost implications of the work environment, its carbon footprint, and its influence on employee engagement.
• Development of Industry-Recognized Indicators: Design a standardized data collection framework and define operational indicators tailored
to the unique requirements of various sectors.
• Data-Driven Insights for Value Creation: Collect and analyze extensive data to identify areas where value can be generated within the work environment at the organizational or building level. This analysis will provide a foundation for implementing targeted, impactful actions.

Profil du candidat :
We are seeking two highly motivated post-doctoral researchers with expertise in one or more of the
following areas: machine learning, deep learning, data mining, knowledge-graph mining, or ontology development.

Successful candidates will join the LITIS laboratory at INSA Rouen
Normandie, collaborating with a diverse and interdisciplinary team of students and postdoctoral researchers in a vibrant and dynamic environment.

Formation et compétences requises :
This interdisciplinary research requires proficiency in at least one of the following domains:
1. Technical Expertise:
o Machine learning or deep learning techniques.
o Development and exploitation of ontologies or knowledge graphs.
o Experience in designing hybrid AI approaches (inductive and deductive reasoning) for decision-making is considered an advantage.
2. Soft Skills:
o Strong communication abilities.
o Proficiency in English is essential; fluency in French would be a valuable asset.

Position Details
• Duration: 2 x 12 months, with the possibility of renewal depending on project needs and funding.
• Start Date: Immediate.

Interested candidates are encouraged to send:
1. A comprehensive CV.
2. A brief email summarizing your motivation and context for applying to this position.
Applications will be reviewed on a rolling basis, so early submissions are strongly encouraged.

Adresse d’emploi :
INSA Rouen Normandie

Amélioration de la performance des modèles d’apprentissage fédéré à l’Aide de métaheuristiques

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LAMSADE – Dauphine PSL
Durée : 4 à 6 mois
Contact : sana.mrabet@dauphine.psl.eu
Date limite de publication : 2025-04-04

Contexte :
L’apprentissage fédéré (Federated Learning, FL) est une approche de l’apprentissage machine décentralisé où les modèles sont entraînés localement sur plusieurs appareils sans partager les données brutes, préservant ainsi la confidentialité et réduisant les coûts de communication. Ce paradigme est de plus en plus utilisé dans des domaines sensibles comme la santé, la finance ou encore les appareils connectés. Cependant, il pose des défis uniques, notamment :
• L’hétérogénéité des données entre les participants,
• L’optimisation efficace des modèles sur des ensembles de données distribués et déséquilibrés,
• La communication coûteuse entre les participants et le serveur central.

Sujet :
Ce sujet vise à développer des approches innovantes pour améliorer la performance des modèles d’apprentissage fédéré. Il s’agira d’explorer des méthodes hybrides mêlant l’intégration de méta-heuristiques (ex. : colonies de fourmis, algorithmes génétiques) pour :
• Identifier dynamiquement les sous-ensembles d’appareils participant à chaque cycle, maximisant ainsi la performance globale du modèle tout en respectant les contraintes du système.
• Optimiser la sélection dynamique des modèles locaux contribuant efficacement à la performance globale.
• Optimiser les stratégies d’agrégation des poids pour gérer le déséquilibre des données et améliorer la convergence.

Profil du candidat :
L’offre s’adresse à un étudiant en M2 ou équivalent en Informatique, avec bonnes connaissances en Machine Learning et en programmation Python.

Formation et compétences requises :

Adresse d’emploi :
LAMADE – Université Paris Dauphine – PSL
Place du Maréchal de Lattre de Tassigny – 75775 PARIS Cedex 16

Document attaché : 202501131418_Projet master recherche – FL – 2025.pdf

Knowledge-Based Language Models

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : DIG team, Télécom Paris, Institut Polytechnique de
Durée : 3 years
Contact : nils.holzenberger@telecom-paris.fr
Date limite de publication : 2025-04-04

Contexte :

Sujet :
Hello,

We are hiring 2 PhD students to work on combining language models with structured data, starting from September 2025, at Telecom Paris, Institut Polytechnique de Paris.

Large Language Models are amazing, and with our research project, we aim to make them even more amazing! Our project will connect large language models to structured knowledge such as knowledge bases or databases. With this,

1. language models will stop hallucinating

2. language models can be audited and updated reliably

3. language models will become smaller and thus more eco-friendly and deployable

We work in the DIG team at Telecom Paris, one of the finest engineering schools in France, and part of Institute Polytechnique de Paris — ranked 38th in the world by the QS ranking. The institute is 45 min away from Paris by public transport, and located in the green of the Plateau de Saclay.

Excited about joining us? Tick these boxes:

1. Have a good background in natural language processing, machine learning, and knowledge representation

2. Have a master’s degree (or equivalent)

3. Be of European nationality (imposed by our sponsor, the French Ministry of Armed Forces)

Check out our Web site to apply: https://suchanek.name/work/research/kb-lm/index.html

Fabian Suchanek & Nils Holzenberger

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
19 place Marguerite Perey, 91120 Palaiseau, France

Offre de thèse – modèles génératifs profonds pour la génération procédurale et la génération procédurale inverse

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IGN-ENSG, LASTIG, Université Gustave Eiffel
Durée : 36 mois
Contact : nicolas.audebert@ign.fr
Date limite de publication : 2025-03-16

Contexte :
L’entraînement de modèles d’apprentissage profond pour l’interprétation d’images aériennes et satellitaires requiert de grandes quantités de données annotées. Toutefois, si d’importants volumes de données d’Observation de la Terre (OT) sont disponibles grâce aux satellites européens Sentinel-2 et aux programmes français d’imagerie SPOT et BDORTHO, cette masse de données est non-étiquetée. En effet, peu d’images de télédétection sont annotées avec des information sémantiques utiles pour entraîner des modèles profonds. Ce phénomène est d’autant plus critique pour la cartographie d’urgence: les catastrophes naturelles sont des événements rares, ce qui réduit d’autant les images disponibles.
Pour pallier ces difficultés, la recherche en intelligence artificielle s’est intéressée à la génération de bases de données d’images synthétiques. La popularisation de l’intelligence artificielle dite générative permet ainsi de produire des jeux de données annotés, en générant des images diverses dans des configurations connues. La génération procédurale est en outre un procédé historiquement bien connu dans la communauté du jeu vidéo, permettant de produire rapidement de grands mondes virtuels en trois dimensions.

Sujet :
L’objectif principal de cette thèse est de combiner les forces de l’apprentissage profond et de la génération procédurale basée grammaire pour les données géospatiales.
La génération procédurale désigne les algorithmes de création de contenu, en particulier pour le jeu vidéo. Ces techniques permettent de créer des mondes virtuels cohérents , notamment pour la modélisation et la simulation du réel, La génération procédurale connaît un regain de popularité car elle permet de produire de grands volumes de données synthétiques annotées, sur lesquels entraîner des réseaux de neurones profonds . Historiquement, la génération procédurale s’est appuyé sur quatre grande familles de méthodes: les approches basées exploration, les approches par satisfaction de contraintes, les méthodes basées grammaire et les approches par apprentissage.
Les approches basées grammaire (ou assimilées, par exemple basées système-L ) sont particulièrement intéressantes. Elles se fondent sur un langage formel qui définit quelles sont les instances acceptables des objets à générer. Cette grammaire permet d’inclure une connaissance experte et peut être considérée comme interprétable. Cependant, définir manuellement une grammaire requiert une certaine expertise et implique souvent une approche itérative par essai-erreur. En comparaison, la génération procédurale par apprentissage statistique permet d’apprendre à générer des objets à partir d’un corpus existant. Toutefois, les modèles appris sont susceptibles de générer des objets inacceptables (par exemple, des maisons sans aucune porte). Par ailleurs, les approches récentes, notamment par apprentissage profond, nécessitent des jeux de données de grande taille pour exceller, ce qui n’est pas toujours possible. En particulier, les entités géographiques urbaines (typiquement les routes et les bâtiments) doivent respecter des a priori géométriques forts qui peuvent être complexes à satisfaire.
Ce sujet de thèse s’intéresse ainsi à l’hybridation entre la génération procédurale symbolique, en particulier exploitant les grammaires, et l’apprentissage profond. Des approches hybrides peuvent permettre d’apprendre à partir de moins d’exemples, tout en respectant mieux les contraintes imposées sur les données par une grammaire.
L’objectif est double:
1. Dans un premier temps, il s’agit de concevoir des architectures génératives de réseaux de neurones dont les sorties sont contraintes par une grammaire. Ainsi, le modèle sera garanti de ne générer que des objets acceptables vis à vis d’une grammaire fournie par l’usager . Plus précisément, on s’intéressera:
• à contraindre les cartes de segmentation d’un modèle prédictif à respecter une grammaire sur l’agencement spatial des objets,
• ou bien à des modèles génératifs qui ne peuvent produire que des objets acceptables selon une grammaire imposée, par exemple de bâtiments.
2. Dans un second temps, de développer des modèles capables d’inférer tout ou partie d’une grammaire à partir d’un corpus d’exemples (génération procédurale inverse et inférence de grammaire). En particulier, on cherchera:
• des méthodes capables d’apprendre automatiquement les symboles terminaux du langage, notamment à l’aide de l’apprentissage de prototypes ,
• puis à des méthodes capables de déduire les règles de production de la grammaire .
Ces techniques de génération seront appliquées à divers types de données géospatiales en 2D et 3D pour la génération de villes . En particulier, les applications pourront inclure les plans cadastraux (emprises au sol de parcelles et de bâtiments), des modèles 3D de bâtiments (produits manuellement ou extraits du Lidar HD) ou des cartes d’occupation du sol.

Profil du candidat :
Le ou la candidate idéale dispose d’une formation de niveau bac+5 (master ou ingénieur) dans l’un des domaines suivants: science des données, jeu vidéo, géomatique. Il ou elle démontre une expérience de la programmation, en particulier avec le langage Python. Une connaissance des outils de gestion projet informatique, notamment Git, sera appréciée. Une bonne maîtrise de l’anglais (écrit et oral) est un pré-requis. Sans être indispensable, une première expérience avec la génération procédurale, les modèles profonds génératifs ou les données géospatiales est un plus.

Formation et compétences requises :

Adresse d’emploi :
LASTIG, IGN-ENSG, 6-8 avenue Blaise Pascal, Champs-sur-Marne

Document attaché : 202501071048_doctorant.pdf

Hybrid AI for the prevention of toxic smoke inhalation risk among firefighters

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Connected Health Lab (Ecole d’ingénieurs ISIS) Ca
Durée : 36
Contact : francis.faux@univ-jfc.fr
Date limite de publication : 2025-02-28

Contexte :
The aim of the project is to trace the toxic products “inhaled” by firefighters during their various interventions.

Sujet :
The first stage of the thesis will be to make the real-time acquisition system operational and reliable,
and to contextualize it according to the type of fire (apartment, forest).
The second objective of the thesis will be:
– to study hybrid online and multi-source learning models for modeling the toxicity of different types of fire, in order to infer the duration
of exposure to different toxic products (taking into account the randomness of the context)
– to develop a medical decision support tool under uncertainty to identify at-risk firefighter profiles.
Given a firefighter’s history, it will be possible to deduce the arguments that point to a certain level
of risk associated with the development of different diseases. To this end, work on Bipolar Layered argumentative
Frameworks could be adapted to temporal data and, if necessary, enriched.

Profil du candidat :
We are looking for a candidate with a strong AI background, particularly in machine learning. Knowledge of uncertainty modeling in AI will be highly appreciated.

Formation et compétences requises :
Master2

Adresse d’emploi :
Ecole d’ingénieurs ISIS, rue Firmin Oulès, 81100 Castres (france)

Document attaché : 202501061422_Thesis-AI_hybrid.pdf