CPJ machine learning et physique à l’Université Paris-Saclay

When:
02/10/2025 – 03/10/2025 all-day
2025-10-02T02:00:00+02:00
2025-10-03T02:00:00+02:00

Offre en lien avec l’Action/le Réseau : DatAstro/– — –

Laboratoire/Entreprise : LISN
Durée : 3 à 5 ans
Contact : cyril.furtlehner@inria.fr
Date limite de publication : 2025-10-02

Contexte :
Le département d’informatique de l’Université Paris-Saclay annonce l’ouverture d’une Chaire de Professeur Junior rattachée au laboratoire LISN, dans le domaine interdisciplinaire de l’apprentissage automatique et de la physique, à partir de décembre 2025 (voir détails : https://team.inria.fr/tau2/files/2025/09/CPJ.pdf).

Cette CPJ correspond à un poste de type tenure-track, assorti d’un financement de démarrage d’environ 200 k€ et d’un service d’enseignement réduit (64h/an) pendant les premières années, normalement suivi d’une titularisation comme professeur des universités.

La date limite de candidature est le 2 octobre. Dépôt des candidatures via : https://odyssee.enseignementsup-recherche.gouv.fr/procedures/recrutement-ec/offres-poste/fiche-offre-poste/253200.

Pour toute question scientifique ou générale, merci de contacter Cyril Furtlehner et Guillaume Charpiat (cyril.furtlehner@inria.fr, guillaume.charpiat@inria.fr), et pour les aspects pédagogiques Lila Boukhatem (lila.boukhatem@universite-paris-saclay.fr).

Sujet :
L’intelligence artificielle est au cœur de la stratégie de l’Université Paris-Saclay. Le couplage entre IA, mathématiques appliquées et physique constitue un domaine stratégique, avec des applications allant du climat (modélisation spatio-temporelle, enrichissement de données) à la santé (médecine personnalisée, modélisation d’organes).
Le thème du projet illustre la synergie entre les départements de mécanique numérique, d’apprentissage et de science des données du LISN, et s’inscrit dans les axes portés par DATAIA et le clusterIA via les chaires modulaires. Certains axes s’inscrivent dans des initiatives internationales pluridisciplinaires entre physique et informatique, comme la Simons Collaboration on Cracking the Glass Problem (https://scglass.uchicago.edu/).

Le projet PhyML est aligné sur les priorités du LISN :

– Projet multidisciplinaire à l’interface entre apprentissage, science des données, simulation et mécanique ;
– Fort ancrage dans l’écosystème local, avec des collaborations structurées : projet ML4CFD (Machine Learning for Computational Fluid Dynamics, coll. IFPEN), projet HSA (Hybridation Simulation Apprentissage, IRT-SystemX) et thèse CD-ROM (Complementary Deep – Reduced Order Model), projet ANR SPEED (Simulating Physical PDEs Efficiently with Deep Learning, coord. Lionel Mathelin), ainsi que la start-up fondée par deux doctorants de l’équipe A&O (M. Nastorg et E. Meunier).

Par ailleurs, l’interface entre IA et physique constitue un des axes de DataIA, centré sur les liens entre IA, systèmes complexes et physique statistique, soutenu par les possibilités de financement du ClusterIA.

Profil du candidat :
**Résumé du projet**

L’objectif est de développer des interactions fécondes entre physique et apprentissage automatique.

– Premier axe : AI4Science (SciML), en développant des méthodes d’apprentissage pour mieux simuler ou comprendre des phénomènes physiques. Cela inclut l’intégration de connaissances physiques (invariances, symétries et bris de symétrie, propriétés désirées, métriques entre systèmes dynamiques, PINNs, etc.) dans les tâches d’apprentissage. On peut concevoir pour cela des architectures neuronales et méthodes d’optimisation adaptées (graph-NN, transformers, schémas de discrétisation, NeuralODEs, modèles multi-échelles, génératifs, réseaux neuronaux group-equivariant, …). Le couplage entre simulation et apprentissage, dans un contexte riche en données, ouvre des perspectives majeures (accélération, stabilisation des simulations, résolution de problèmes inverses).

– Deuxième axe : exploiter des concepts de physique théorique (ou mathématique) pour explorer les propriétés fondamentales de l’apprentissage automatique, par exemple la scalabilité (neural scaling laws) ou la dynamique d’entraînement, en particulier en haute dimension. Cela peut impliquer des outils classiques (théorie des matrices aléatoires, méthodes de répliques), ou des concepts plus récents spécifiques au ML (neural tangent kernel, régime de « lazy training »). On pourra explorer la dynamique au-delà du lazy regime, les régimes hors équilibre des Energy-Based Models via la dynamical mean field theory, ou encore les compromis confidentialité–utilité avec des modèles analytiques. Des concepts issus d’autres domaines de la physique ou des mathématiques appliquées peuvent aussi être pertinents, comme l’ont montré les processus de diffusion à la base des modèles génératifs.

De manière générale, nous recherchons des profils à l’interface Physique/ML, aussi bien du côté ML4Physics que Physics4ML.

Formation et compétences requises :

Adresse d’emploi :
LISN
Université Paris-Saclay
1 rue René Thom
91190 Gif-sur-Yvette

Document attaché : 202509091622_CPJ.pdf