Archives
Stage M2 – Robust joint detection-estimation methodologies for massive radio telescopes
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Laboratoire des signaux et syst`emes (L2S)
Durée : between 4 and 6 mont
Contact : stefano.fortunati@centralesupelec.fr
Date limite de publication : 2024-05-31
Contexte :
One of the key features characterizing the new generation of radio telescopes is the large number of their antenna elements. Built in 2010, the Low-Frequency Array (LOFAR) is currently the largest radio telescope in operation with 100000 antenna dipoles distributed across several European countries. Furthermore, the upcoming Square-Kilometer Array (SKA) will be made up of more than 130000 antennas. Such a large number of antennas will make it possible to acquire increasingly accurate and detailed images of the celestial vault. Such images will form the basis for promising developments in astrophysics and cosmology in the coming years.
However, as in any other remote sensing system, the signal collected by a radio telescope is affected by different sources of disturbance that will degrade the quality of the collected image. Consequently, to take full advantage of the potential of the new radio telescopes, one must first take the disturbance into account. In general, this disturbance is characterized as a zero-mean Gaussian random process with possibly unknown correlation structure.
Then, the crucial question is: is it possible to derive robust imaging algorithms, without any assumption on the specific form of the noise distribution, and that still remain accurate? If yes, which is the price to pay?
Sujet :
This internship is part of the“SIDEREAL” project. The objectives
of the internship are the following:
1. Building upon the existing works, we will adapt the array signal model to the context of radio telescopes. Particular attention will be devoted to the disturbance model to be used in astronomical data analysis and on its statistical description.
2. After these preliminary investigations, the project will focus on the development of original image reconstruction algorithms for radio astronomy by exploiting the massive number of antenna elements available in modern radio telescopes. Their performance and statistical properties will be assessed by means of simulated data.
Profil du candidat :
Master 2 or equivalent in machine learning / statistical signal processing or any related field
Formation et compétences requises :
Statistical signal processing, estimation theory, programming skills in Matlab or Python.
Adresse d’emploi :
Laboratoire des signaux et systèmes (L2S), Bât. IBM, Rue Alfred Kastler, 91400 Orsay.
Document attaché : 202311021052_Internship_proposal_SF_LB.pdf
10ème École d’Hiver é-EGC “Analyse des données et apprentissage face à l’urgence climatique et la crise écologique, humanitaire et économique”
Date : 2024-01-22 => 2024-01-23
Lieu : Dijon, France
10ème Ecole d’Hiver é-EGC sur le thème « Analyse des données et apprentissage face à l’urgence climatique et la crise écologique, humanitaire et économique »
22 – 23 Janvier 2024, Dijon – France
https://iutdijon.u-bourgogne.fr/egc2024/ecole-e-egc/
==============================================
La dixième École d’Hiver é-EGC, sur le thème « Analyse des données et apprentissage face à l’urgence climatique et la crise écologique, humanitaire et économique », est un événement organisé par l’Association Extraction et Gestion de Connaissances (EGC, http://www.egc.asso.fr/).
Cet événement s’organise autour de deux activités principales :
• deux jours de formation : les 22 et 23 Janvier 2024
• participation à la conférence EGC 2024 : du 24 au 26 janvier 2024
THÈME DE L’ÉCOLE : Analyse des données et apprentissage face à l’urgence climatique et la crise écologique, humanitaire et économique
Cette école s’intéresse aux méthodes aujourd’hui disponibles permettant la fusion de données multimodales (audio, image, texte, série temporelle, etc.), l’analyse et l’apprentissage pour apporter des outils et solutions aux problématiques posées par le changement climatique et ses impacts sur notre environnement et nos sociétés. Cette thématique englobe les approches de l’intelligence artificielle aussi bien symbolique, que numérique ou hybride pour le traitement et l’analyse de données complexes et de connaissances issues de différents domaines scientifiques (sciences sociales, sciences de la Terre et du vivant, sciences médicales, etc.). La multidisciplinarité, ainsi que la diversité, la complexité et l’hétérogénéité des données mettent aux défis nos approches actuelles et nécessitent de nouvelles directions de recherche.
OBJECTIFS DE L’ÉCOLE
Les deux jours de formation ont pour but principal d’offrir aux participants des tutoriaux d’initiation dans le domaine de recherche couvrant les thèmes de l’école mais également des tutoriaux plus spécifiques présentant les récentes avancées proposant des solutions et des techniques nouvelles pour les différentes problématiques ayant émergées dans ce domaine. Certains exposés seront associés à des séances plus pratiques afin de permettre aux participants de manipuler quelques outils.
La participation à la conférence permettra aux participants de prendre part à un des événements majeurs de la communauté francophone de l’extraction et la gestion de connaissances. Elle leur permettra d’assister à des présentations de nouvelles avancées et approches développées dans la communauté, ceci pouvant ainsi inspirer leur parcours scientifique futur.
Enfin, cette école souhaite offrir aux jeunes chercheurs (doctorants, post-doctorants et ingénieurs) et aux chercheurs confirmés du domaine la possibilité de se rencontrer et d’échanger des idées, ce qui devrait également permettre aux jeunes chercheurs d’enrichir leur réseau.
PROGRAMME DE L’ÉCOLE
Le programme sera finalisé et disponible sur le site de l’école dans les plus brefs délais ; voici la liste des intervenants confirmés :
Pierrick Bruneau (Luxembourg Institute of Science and Technology, Luxembourg)
Reik Donner (Magdeburg and Potsdam Institute for Climate Impact Research, Allemagne)
Davide Faranda (Laboratoire des Sciences du Climat et de l’Environnement, CNRS, Paris)
Germain Forestier (Institut de recherche en informatique, mathématiques, automatiques et signal, Université de Haute-Alsace)
Aidan Hogan (Millennium Institute for Foundational Research on Data, Universidad de Chile)
PUBLIC CONCERNÉ
L’École d’Hiver é-EGC 2024 s’adresse particulièrement aux doctorants et étudiants souhaitant approfondir leurs connaissances dans le domaine de l’exploration de données et de l’apprentissage, avec un focus sur l’application de ces compétences pour soutenir les Objectifs de développement durable.
COMITÉ SCIENTIFIQUE ET ORGANISATION
• Jérome Gensel (LIG, Université Grenoble Alpes)
• Mustapha Lebbah (UVSQ, Paris-Saclay)
• Zaineb Chelly Dagdia (UVSQ, Paris-Saclay)
• Claudia Marinica (LS2N, Université de Nantes)
DATES IMPORTANTES
• Date limite pré-inscriptions (CV à fournir) : 30/11/2023
• Inscription effective (École (formation + conférence EGC), sur le site de la conférence) : 07/12/2023
L’INSCRIPTION SE RÉALISE EN DEUX ÉTAPES
Les participants doivent manifester leur intérêt, avant le 30/11/2023, pour participer à l’École en s’inscrivant avec ce formulaire :
https://forms.gle/YcN8tSj7nP7A7kR58
Pour que la pré-inscription soit prise en compte, elle doit être accompagnée d’un CV récent du participant.
Après la confirmation de la pré-inscription par le comité d’organisation, et avant le 07/12/2023, les participants doivent s’inscrire via la page d’inscription de la conférence EGC 2024 (attention de bien choisir le tarif comprenant l’École).
Le nombre de participants est limité à 30 personnes. Le tarif de l’inscription sera affiché sur le site de la conférence EGC (https://iutdijon.u-bourgogne.fr/egc2024/ecole-e-egc/) et il comprend :
la participation à l’École d’Hiver (22 et 23 janvier 2024) ;
la participation à la conférence (24 au 26 janvier 2024) ;
les déjeuners et le repas de gala.
Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.
Stage M2 — Apprentissage de prior pour les problèmes inverses
Offre en lien avec l’Action/le Réseau : DOING/– — –
Laboratoire/Entreprise : Laboratoire des Signaux et Systèmes
Durée : 5 mois
Contact : francois.orieux@l2s.centralesupelec.fr
Date limite de publication : 2024-07-01
Contexte :
Le traitement de mesures instrumentales nécessite souvent d’utiliser le modèle de données, ou modèle direct, dans la méthode. Par exemple les mesures sont affectées d’un bruit, d’un flou, ou vivent dans un autre espace que celui des inconnues (des coefficients de Fourier versus une image pour le cas de l’IRM).
Autant le modèle direct est stable et bien posé (à partir des paramètres on peut générer des données), autant le problème inverse est le plus souvent instable et mal-posé.
Sujet :
Les techniques de résolution de problèmes inverses ont fortement évolué ces dernières années avec les nouvelles techniques d’apprentissage machine. On peut mentionner le déroulage d’algorithmes itératif (unrolling), les approches plug-and-play, le RED (regularization by denoising), ou encore les a priori basés donnés.
Le travail consistera à comprendre et mettre en œuvre les approches utilisant les réseaux génératifs comme les VAE ou encore les réseaux inversibles. Il s’agit d’une approche reposant sur la minimisation d’un critère mixte
J(x) = |y – H x|² + R(x)
où le terme d’attache aux données utilise le modèle d’observation connu H (flou, inpainting, debruitage…) et le terme de régularisation R(x) est appris à partir de données. La solution est alors définie comme x = argminₓ J(x).
* Dans un premier temps, le stagiaire se familiarisera sur les problèmes inverses et leurs méthodes de résolution.
* Ensuite, il devra faire un état de l’art sur les méthodes basées données et apprentissage statistique pour la résolution de problèmes inverses. Le sujet étant récent, la littérature est abondante et diverse. Des points d’entrée bibliographique seront fournis.
* Nous nous attacherons à mettre en œuvre une des deux méthodes mentionnées plus haut. Les résultats devront être comparés aux résultats obtenus avec les approches classiques : filtre de Wiener, parcimonie… pour lesquels des codes sont à disposition.
* L’application sera à déterminer parmi celles de l’équipe : synthèse de Fourier pour la radioastronomie, la microscopie ou encore reconstruction d’image en tomographie.
Le travail se fera sur un poste équipé d’une carte GPU Nvidia 3080 ou 4090 avec Linux, TensorFlow et Python.
Profil du candidat :
L’étudiant devra avoir une formation type ingénieur ou Master~2 en traitement du signal ou d’images, data science ou machine learning. Il devra posséder des connaissances en mathématiques appliquées ou en programmation.
Formation et compétences requises :
L’étudiant acquerra au cours du stage des compétences en estimation, optimisation, apprentissage machine, inférence statistique, traitement de données et python.
Adresse d’emploi :
L2S, 3 rue Joliot-Curie, 91190 Gif-sur-Yvette
Document attaché : 202311010608_stage-dnn-orieux-l2s.pdf
Stage M2 — Déconvolution rapide pour le radio télescope SKA
Offre en lien avec l’Action/le Réseau : BigData4Astro/– — –
Laboratoire/Entreprise : Laboratoire des Signaux et Systèmes
Durée : 5
Contact : francois.orieux@l2s.centralesupelec.fr
Date limite de publication : 2024-07-01
Contexte :
L’augmentation de la puissance des machines de calcul a incité à la conception d’instrument générant des quantités importantes de données. Parallèlement, le désir de travailler sur des inconnues de grande taille telle que des images hautes ou très haute résolution est de plus en plus présent en particulier dans les sciences expérimentales ou observationnelles.
Le stage s’inscrit dans le cadre du projet international SKA, Square Kilometer Array, et de l’ANR DarkEra. SKA est un observatoire pour la radioastronomie qui produira un volume de données considérable pour produire des images à une résolution spatiale et spectrale inégalées. Les antennes sont réparties en australie et en afrique du Sud, ce qui en fera le plus grand interféromètre radio à ce jour. L’équipe est impliquée dans le projet par le biais de l’ANR DarkEra et du LabCom ECLAT (ATOS, IETR, INRIA…).
Sujet :
Pour exploiter pleinement l’ensemble des informations disponibles, une modélisation fine du processus d’acquisition est nécessaire. Cela définit un modèle direct H, ou simulateur, capable de reproduire des données y à partir d’une image x comme y = Hx. Cependant l’utilisation naïve de H conduisant à des problèmes inverses généralement mal posés, c’est à dire ne produisant pas de résultats satisfaisant.
Les approches standard pour l’inversion reposent généralement sur la minimisation de critères régularisés, la régularisation permettant de rendre le problème bien posé.
* Dans un premier temps le stagiaire se familiarisera sur les problèmes inverses et leurs méthodes de résolution.
* Ensuite le stagiaire s’appuiera sur le travail de thèse de Nicolas Monnier qui a travaillé sur l’accélération du modèle H. L’objectif est de réutiliser son travail pour partir d’un modèle de donnée fiable et rapide.
* Enfin nous travaillerons à l’élaboration de méthode plus modernes de résolution de problèmes inverse exploitant cette accélération. On explorera notamment les algorithmes de Majorisation-Minimisation (ou MM) et l’utilisation de préconditionneur.
* En fonction de la formation du stagiaire on pourra également plutôt s’orienter sur la mise en œuvre efficaces des algorithmes sur GPU.
Profil du candidat :
L’étudiant devra avoir une formation type ingénieur ou Master~2 en traitement du signal ou d’images, data science ou machine learning. Des
connaissances en mathématiques appliquées, programmation ou architecture de calcul seront appréciés.
Formation et compétences requises :
L’étudiant acquerra aux cours du stage des compétences en estimation,
optimisation, inférence statistique, traitement de données, calculs intensifs, radioastronomie et python.
Adresse d’emploi :
L2S, 3 rue Joliot-Curie, 91190 Gif-sur-Yvette
Document attaché : 202311010558_stage-ska-orieux-l2s.pdf
Internship position + PhD funding
Offre en lien avec l’Action/le Réseau : EducAction/– — –
Laboratoire/Entreprise : IRIMAS
Durée : 5 mois
Contact : nour.el-mawas@univ-lorraine.fr
Date limite de publication : 2024-07-01
Contexte :
The ANR COPCOT project involves members from Pixel team (CREM), MSD Team (IRIMAS), Trigone team (CIREL), and France-IOI association. Our aim is to understand learners’ skills-building in the Technology Enhanced Learning platform Quick-Pi, and to facilitate skills-building through content and feedback personalization.
Sujet :
The goal of this internship is to analyze learners’ data from the Quick-Pi platform (https://quick-pi.org/contenu.html) in order to identify relevant learner behaviors and extract data indicators contributing to the skills construction in programming among learners.
In particular, the candidate will work on the following tasks:
• Learners’ data analysis. Analysis of trace logs data from users’ interactions help us to better understand their learning process, distinguish groups of learners, and predict learners’ success in each Quick-Pi exercise.
Trace logs data can be seen as time series, hence this task will start by reviewing existing Machine Learning algorithms [1] used for time series analysis. Then the candidate will identify and adapt these algorithms to our sequential data in order to predict the learners’ success in each exercise on the Quick-Pi platform. The implicit data provided by Quick-Pi logs (like time spent on an exercise, navigation logs, code lengths, etc.) will be used. Once the pertinent algorithm to predict students’ success is found,
indicators can be found. Existing learners’ data analysis techniques such as knowledge tracing [2, 3] will be investigated to predict the success of students in each exercise.
• Indicators identification. The candidate will analyze which logs in the selected algorithm of the previous task were used by the algorithm itself to predict the success. This will help us to identify indicators. We believe that if the selected algorithm successfully predicts learners’ success, we should be aware of which specific log lines contributed to this prediction the most. For example, we can find that the time spent on an exercise may have a correlation with the learners’ success in a specific exercise.
These indicators are crucial to understand skills-building and learners’ difficulties. Features selection techniques [4] and explainability techniques [5] will be investigated in order to identify pertinent indicators for skills- building.
References
[1] H. Ismail Fawaz, G. Forestier, J. Weber, L. Idoumghar, and P.-A. Muller, “Deep learning for time series classification: a review,” Data mining and knowledge discovery, vol. 33, no. 4, pp. 917–963, 2019.
[2] M. Sao Pedro, R. Baker, and J. Gobert, “Incorporating scaffolding and tutor context into bayesian knowledge tracing to predict inquiry skill acquisition,” in Educational Data Mining 2013, Citeseer, 2013.
[3] S. I. Ram´ırez Luelmo, N. El Mawas, and J. Heutte, “Existing machine learning techniques for knowledge tracing: A review using the prisma guidelines,” in International Conference on Computer Supported Education, pp. 73–94, Springer, 2022.
[4] V. Vijayalakshmi and A. Prakash, “Developing an optimized feature selection process for designing efficient content management system using educational data,” International Journal of Advanced Research in Science Technology (IJARST), vol. 7, no. 1, pp. 15–24, 2020.
[5] R. Alamri and B. Alharbi, “Explainable student performance prediction models: a systematic review,” IEEE Access, vol. 9, pp. 33132–33143, 2021.
Profil du candidat :
The candidate must be registered in Master 2 or last year of Engineering School (or equivalent) in Computer Science
Formation et compétences requises :
• Good skills in Python programming are mandatory
• Good skills in Machine Learning are required
• Interest, knowledge and/or a first experience in Technology Enhanced Learning (learning programming in particular) will be appreciated
Adresse d’emploi :
UHA/IRIMAS EA 7499, Mulhouse, France
Document attaché : 202310310845_internship_position_COPCOT_2023_VF.pdf
Post-doctoral researcher on deep learning methods for the reconstruction and analysis of data from the ATLAS experiment at the LHC (M/W)
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Laboratoire des 2 Infinis – Toulouse (L2IT)
Durée : two years
Contact : jan.stark@l2it.in2p3.fr
Date limite de publication : 2024-07-01
Contexte :
The Laboratoire des 2 Infinis – Toulouse (L2IT) is a laboratory created in 2020 to conduct research in fundamental physics with new numerical and theoretical approaches to data analysis. The laboratory’s research focuses on particle physics, gravitational waves and the equation of state of nuclear matter, and is supported by the concurrent development of data science and analysis methodologies. L2IT is operated by CNRS/IN2P3 and Université Toulouse III – Paul Sabatier. The L2IT Particle Physics team contributes to understanding the dynamics of the scalar sector of the Standard Model through studies of the Higgs boson and of the polarisation of vector bosons. It contributes to the development of data reconstruction software for the new tracker (ITk) that the ATLAS collaboration will install for the high-luminosity phase of the LHC. The successful candidate will work in close collaboration with other members of the Particle Physics team, and with members of the Computing, Algorithms and Data team at L2IT.
Sujet :
The successful candidate will develop innovative analysis methods for the reconstruction or the analysis of data from the ATLAS experiment. The L2IT team plays a leading role within the ATLAS collaboration in the reconstruction of charged particle tracks using deep geometric learning (GDL). The person joining us can contribute to this effort, for example by applying GDL to signatures not considered in the existing studies (electrons or tracks produced far away from the centre of the detector). Other applications of machine learning for the reconstruction or the analysis of ATLAS data are possible, depending on the candidate’s experience and motivation.
Profil du candidat :
We are looking for a colleague with a PhD in particle physics or in computer science with a strong specialisation in machine learning. Proven experience with machine learning to solve a scientific problem, or experience with algorithms for particle physics would be a plus.
Formation et compétences requises :
PhD in particle physics or in computer science obtained less than three years before the start date at L2IT.
Adresse d’emploi :
Laboratoire des 2 Infinis – Toulouse (L2IT)
Maison de la Recherche et de la Valorisation
75 cours des Sciences
31400 Toulouse
Document attaché : 202310301004_PostdocML_L2IT.pdf
CDD/Post-doctorate at CEA: Machine/deep learning approaches for the elucidation of small molecule structures
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : CEA
Durée : 12 months
Contact : etienne.thevenot@cea.fr
Date limite de publication : 2023-11-30
Contexte :
Mass Spectrometry (MS) based metabolomics is a powerful technology for the discovery of biomarkers that can stratify patients. Within the MetaboHUB French infrastructure for metabolomics and fluxomics, a significant effort is dedicated to the development of innovative computational methods, software libraries and workflows for the processing, analysis, and interpretation of metabolomics data.
Determining the 2D structure of a metabolite from MS data is a major challenge. Since spectral libraries of reference compounds are scarce, in silico strategies have been developed to match experimental spectra directly to molecules, for which the structure is known, but no spectra is available [1]. The current reference method relies on the prediction of a vector of chemical descriptors using a set of Support Vector Machines; this fingerprint can subsequently be matched to those from known compounds in databases [2]. Performances, however, remain currently limited to 30% of correct structures [3]. Recently, alternatives based on artificial neural networks have been suggested to further take into account the interactions between features [4].
[1] Nguyen et al. (2019) Recent advances and prospects of computational methods for metabolite identification: a review with emphasis on machine learning approaches. Briefings in Bioinformatics, 20, 2028–2043.
[2] Dührkop et al. (2015) Searching molecular structure databases with tandem mass spectra using CSI:FingerID. PNAS, 112, 12580–12585.
[3] Schymanski et al. (2017) Critical Assessment of Small Molecule Identification 2016: automated methods. Journal of Cheminformatics, 9, 22.
[4] Fan et al. (2020) MetFID: artificial neural network-based compound fingerprint prediction for metabolite annotation. Metabolomics, 16, 104.
Sujet :
The first task will focus on the benchmark of the recent prediction tools against the consortium’s data (peakforest.org), as well as against those from the CASMI challenge data [3]. The model will then be enriched with new input features and output molecular properties, and the architecture will be optimized to improve the performances. Finally, the algorithms will be implemented into FAIR software libraries and computational workflows for high-throughput and reproducible structure recommendation.
Main responsibilities:
– Identify the open source prediction tools
– Implement a pipeline for FAIR comparison of their performances
– Build a training database of all publicly available spectra
– Build a comprehensive list of molecular descriptors
– Propose alternative learning architectures to increase the prediction performances
– Implement the selected solution in FAIR software libraries and computational workflows
Keywords: machine learning, deep learning, cheminformatics
Profil du candidat :
Bachelor’s degree (Bac +5) or PhD in machine learning, deep learning, cheminformatics or computational mass spectrometry.
MetaboHUB and CEA are committed to promoting gender equality, and female candidates are encouraged to apply.
Formation et compétences requises :
– Proficiency in Python and PyTorch
– Familiarity with RDKit
– Familiarity with QSAR approaches (an advantage)
– Familiarity with Singularity containers (an advantage)
– Ability to work independently and collaborate effectively within a multidisciplinary consortium.
– Good communication and documentation skills.
Adresse d’emploi :
You will join the metabolomics data science team (Odiscé; odisce.github.io) at CEA Saclay and interact with the colleagues from the MetaboHUB consortium.
Document attaché : 202310271615_CDD_Offer_MetaboHUB_MS2learning_madics.pdf
Apprentissage collaboratif multiparadigme interactif pour l’analyse de séries temporelles
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : AgroParisTech – ICube
Durée : 12 mois
Contact : gancarski@unistra.fr
Date limite de publication : 2023-11-24
Contexte :
Projet ANR Hérelles “Hétérogénéité des données – Hétérogénéité des méthodes : Un cadre collaboratif unifié pour l’analyse interactive de données temporelles”
https://seafile.unistra.fr/f/6453ca212850438684bc/
Salaire : de 2000€/mois à 2300€/mois (net) en fonction de l’expérience.
Contact : Antoine Cornuéjols antoine.cornuejols@agroparistech.fr et Pierre Gançarski, pierre.gancarski@unistra.fr
Sujet :
La personne recrutée devra proposer et définir des mécanismes originaux permettant à des méthodes supervisées et non-supervisées de collaborer de façon efficace pour arriver à un consensus de classification. Les modalités d’échange d’information entre celles-ci devront être précisées. Elle devra aussi définir un protocole d’interaction entre l’utilisateur et les méthodes d’apprentissage à travers l’utilisation de contraintes. Enfin, elle devra implanter concrètement les approches proposées pour permettre le test et la validation de celles-ci. Un ingénieur dédié à la plateforme FoDoMuST l’aidera dans cette tâche.
Profil du candidat :
Doctorat en informatique et spécialisé en apprentissage automatique/fouille de données.
Formation et compétences requises :
– Connaissances solides en Science des Données et plus particulièrement sur les méthodes standards de classification et de clustering. Une première expérience sur l’utilisation de modèles collaboratifs/ensemblistes ou d’intégration de contraintes serait un plus.
– Bonnes compétences en communication verbale (anglais ou français) et écrite (anglais).
– Compétences interpersonnelles et la capacité à travailler individuellement ou en tant que membre d’une équipe de projet.
Adresse d’emploi :
Lieu : Saclay (Campus d’AgroParisTech, 22 place de l’Agronomie, 91120 Palaiseau) ou au choix
Strasbourg (ICube, 300 bld Sébastien Brant 37400 Illkirch)
Durée : Un an
Date : Au plus tôt
Document attaché : 202310261121_Sujet_HERELLES_2023.pdf

