Postes/PostDocs/CDD
Feb 21 Fri 2025 Offre en lien avec l’Action/le Réseau : SimpleText/– — – Laboratoire/Entreprise : Télécom SudParis Durée : CDI Contact : djamel.belaid@telecom-sudparis.eu Date limite de publication : 2025-02-21 Contexte : Sujet : Télécom SudParis, École de l’Institut Mines-Télécom (IMT) et Membre de l’Institut Polytechnique de Paris (IP Paris) Télécom SudParis, recrute un(e) Maître(sse) de Conférences en informatique. La fiche de poste ainsi que le lien pour candidater sont accessibles ici : Fr : https://institutminestelecom.recruitee.com/o/mc-informatique-inf (En: https://institutminestelecom.recruitee.com/l/en/o/mc-informatique-inf) Date limite de dépôt des candidatures : 21 février 2025 Date prévue pour le début du contrat : septembre 2025 (flexible) Localisation : Campus de Télécom SudParis, Évry, France Contacts : Djamel Belaïd (djamel.belaid@telecom-sudparis.eu), Sophie Chabridon (sophie.chabridon@telecom-sudparis.eu) Merci de relayer l’annonce auprès de vos contacts potentiellement intéressés. ———————— Télécom SudParis is hiring an assistant/associate Professor (Maître de Conférences) in Computer Science. The job description and the link to apply are available here: Fr: https://institutminestelecom.recruitee.com/o/mc-informatique-inf (En: https://institutminestelecom.recruitee.com/l/en/o/mc-informatique-inf) Application deadline: February 21, 2025 Expected starting date: September 2025 (flexible) Location: Campus of Télécom SudParis, Évry, France Main contacts: Djamel Belaïd (djamel.belaid@telecom-sudparis.eu), Sophie Chabridon (sophie.chabridon@telecom-sudparis.eu) Thank you for sharing the announcement with potentially interested contacts. Profil du candidat : Formation et compétences requises : Adresse d’emploi : Télécom SudParis, Palaiseau, Évry Feb 25 Tue 2025 Offre en lien avec l’Action/le Réseau : SimpleText/– — – Laboratoire/Entreprise : Université de Paris-Dauphine – PSL Durée : 1 an renouvelable Contact : bruno.chavesferreira@dauphine.fr Date limite de publication : 2025-02-25 Contexte : Créé au sein de l’Université Paris Sciences et Lettres (PSL) et hébergé à Paris Dauphine, l’Institut « Applied Computational Social Sciences » a pour vocation de renforcer la recherche sur les grandes problématiques sociétales (cohésion politique et sociale, transition écologique, transformation numérique, efficacité et compétitivité économique) en articulant sciences des données et sciences sociales. L’Institut collecte et traite à large échelle des données hétérogènes tant pour permettre des avancées scientifiques que pour contribuer à éclairer le débat public et la décision. Il réunit sur une équipe pluridisciplinaire de chercheurs en sciences sociales et s’appuie sur une équipe d’ingénieurs en sciences de données qui apportent leurs expertises pour constituer des bases de données originales et opérer des traitements complexes. Ces projets sont initiés et portés par des laboratoires du CNRS, de Dauphine, de l’ENS, de l’INSP et des MinesParis-Tech. Les résultats des travaux ont vocation à être largement diffusés auprès de partenaires institutionnels et du monde économique. Sujet : Dans le cadre du développement de l’Institut ACSS, l’Université PSL recrute un ingénieur de recherche (IR) en science des données. Elle/il sera chargé(e) de mettre en œuvre des méthodes et outils de collecte et traitement de données issues de sources variées (Web, bases de données institutionnelles, archives, etc.). Elle/il aura également la responsabilité de veiller au respect des bonnes pratiques en matière de développement et de gestion du code et des données. Enfin, elle/il contribuera au développement de modèles statistiques ou d’apprentissage automatique (notamment dans le domaine du traitement automatisé de la langue naturelle). Profil du candidat : Diplôme d’ingénieur en informatique (ou mathématiques/statistiques) avec au moins 3 ans d’expérience ou titulaire d’un doctorat avec une thèse dans le domaine. Formation et compétences requises : Expérience dans le développement de réseaux de neurones profonds et autres modèles statiques avancés appliqués au traitement automatisé du langage sur de larges corpus. Maîtrise des écosystèmes Python et/ou R dédiés à la science des données. Plus spécifiquement en Python, maîtrise de numpy, pandas, pytorch et l’environnement hugging face. En R, maîtrise du tidyverse, de tidymodels et des bibliothèques associées, ainsi que de torch. Maîtrise des bases de données relationnelles et NoSQL. Compréhension des méthodes scientifiques des sciences humaines et sociales. Adresse d’emploi : Université de Paris Dauphine – PSL Pl. du Maréchal de Lattre de Tassigny, 75016 Paris Document attaché : 202410250904_Ingenieur_IR_ACCS_2024_2_fr.pdf Mar 1 Sat 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LESIA, Observatoire de Paris-PSL Durée : 18 mois Contact : baptiste.cecconi@obspm.fr Date limite de publication : 2025-03-01 Contexte : Le projet OPAL (Ontology Portal for Astronomy Linked-data) vise à créer une instance OntoPortal (https://ontoportal.org) pour l’astronomie, nommée ontoportal-astro, afin de fédérer et organiser les vocabulaires et ontologies des différentes sous-communautés scientifiques liées à l’astronomie, la physique des particules, et la planétologie et l’héliophysique. Ce projet s’inscrit dans un cadre de collaboration avec des initiatives telles que ESCAPE (https://projectescape.eu), EOSC (https://eosc.eu) et FAIR-IMPACT (https://fair-impact.eu), pour améliorer l’interopérabilité des données scientifiques à travers des artefacts sémantiques FAIR. Sujet : Missions principales : ● Développement d’ontologies : Développer et/ou consolider des ontologies et des artefacts sémantiques FAIR pour les communautés scientifiques impliquées dans le projet OPAL (astronomie, héliophysique, sciences planétaires, physique des particules). ● Curation de données sémantiques : Coordonner la gestion et la curation des artefacts sémantiques dans ontoportal-astro. Veiller à la conformité aux principes FAIR (Findable, Accessible, Interoperable, Reusable). ● Accompagnement des équipes : Travailler en collaboration avec les experts du domaine pour identifier et formaliser les besoins en matière d’ontologies. Accompagner les communautés scientifiques dans le développement, l’intégration et l’utilisation des ontologies. ● Gestion des métadonnées : Assurer la qualité et la gestion des métadonnées des ontologies en utilisant des standards comme SKOS, OWL et RDF. Proposer des méthodes d’évaluation FAIR et des rapports d’amélioration. ● Maintenance technique : Collaborer avec les équipes techniques pour maintenir et optimiser les services d’accès aux ontologies (SPARQL, API, etc.), et garantir l’intégration avec d’autres outils de la communauté scientifique. Profil du candidat : Master ou diplôme équivalent en informatique, sciences de l’information, ou domaine connexe, ou PhD en science de l’information. ● 2 à 5 ans d’expérience en gestion de données, conception d’ontologies ou modélisation des connaissances. ● Excellente capacité de communication pour collaborer avec des scientifiques de différentes disciplines. ● Autonomie, capacité à prendre des initiatives et à résoudre des problèmes techniques complexes. Formation et compétences requises : ● Connaissances en ontologies et modélisation des connaissances : Solide expérience dans la création et l’utilisation d’ontologies dans un environnement scientifique (compétences en OWL, RDF, SKOS). ● Développement et intégration d’ontologies : Expérience avec des plateformes similaires à OntoPortal, et familiarité avec des standards du Web sémantique. ● Accompagnement des utilisateurs : Expérience dans la collaboration avec des communautés scientifiques pour identifier les besoins sémantiques et formaliser des ontologies adaptées. ● Gestion des données scientifiques : Maîtrise des pratiques de gestion et de curation de données dans un contexte de recherche, avec une attention particulière à l’interopérabilité et à la conformité FAIR. ● Outils informatiques : Connaissance des API Web, SPARQL endpoints, et autres outils d’indexation et de visualisation des ontologies. Adresse d’emploi : LESIA, Observatoire de Paris. 5 Place Jules Janssen, 92190 Meudon, France Document attaché : 202412061244_OPAL position Observatoire de Paris.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Institute of Genetics and Development of Rennes Durée : 24 months Contact : helene.bouvrais@univ-rennes.fr Date limite de publication : 2025-03-01 Contexte : We wish to welcome a highly motivated postdoctoral researcher in our multi-disciplinary team at the Institute of Genetics and Development of Rennes (https://igdr.univ-rennes.fr/en/). Research in the team focuses on the robustness of cell division through fluorescence microscopy and quantitative biophysical approaches, using the nematode model organism Caernorhabditis elegans. The ongoing development of an automated microscope allows the team to extend its studies to human cell lines in culture, without synchronization, a key requirement for the studying division robustness. Sujet : The recruited postdoctoral researcher will be an integral part of the on-going research project, funded by the ANR and focused on the study of the regulatory role of microtubule rigidity in cell division. He/she will work on the development of a tool based on artificial intelligence to extract microtubule curvatures from 3D fluorescence microscopy images. In particular, the candidate will use synthetic image generation through simulation (e.g., Cytosim) and deep learning techniques. For this, he/she will have access to local computing servers as well as remote ones (e.g., Jean Zay). Filament curvature measurements will help reveal potential disruptions in microtubule rigidity during genetic perturbation or across cell lines with deregulated expression of candidate proteins involved in regulating microtubule rigidity. Profil du candidat : Formation et compétences requises : – Hold a PhD degree in computer science, machine learning or applied mathematics. – Have strong theoretical and practical skills in deep learning. – Master programming languages such as Python. – Have proven experience in implementing deep learning in image analysis. – Be able to work collaboratively within a research team ; be a team player. – Have strong organizational and communication skills, including the ability to express oneself and write in English. – Ability to work independently. – Have an interest in working in a multidisciplinary environment (cellular biology, fluorescence microscopy, soft matter physics, bioinformatics) Adresse d’emploi : IGDR (Institute of Genetics and Developemnt of Rennes), CNRS, Univ. Rennes, UMR 6290 2 avenue du Professeur Léon Bernard, 35000 Rennes cedex, France Document attaché : 202501031145_Annonce_post-doc_informatique_ANR_Micenn_EN.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Equipe HeKA (Inria, Inserm, Univ Paris Cité) Durée : 3 ou 2 ans Contact : adrien.coulet@inria.fr Date limite de publication : 2025-03-01 Contexte : The 2-year position will take place in the HeKA team (Inria, Inserm, Université Paris Cité), physically located at PariSanté Campus, 2-10 rue d’Oradour-sur-Glane, 75015 Paris. The work is a collaboration between the HeKA team, and the Pompidou hospitals (HEGP) of the AP-HP (Assistance Publique – Hôpitaux de Paris). This project is part of the PEPR Digital Health project named ShareFAIR, funded by the French Research National Agency. Sujet : “Step-by-step guidance to clinical decision, by combining data- and knowledge-driven approaches” see associated pdf file for more info Submit your application at https://jobs.inria.fr/public/classic/en/offres/2024-08428 Profil du candidat : Formation et compétences requises : Adresse d’emploi : PariSanté Campus 2-10 rue d’Oradour-sur-Glane 75015 Paris Document attaché : 202412041908_phd_or_postdoc_subject_sharefair.pdf Mar 15 Sat 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Univ. de Montpellier Durée : 12 mois Contact : marianne.huchard@lirmm.fr Date limite de publication : 2025-03-15 Contexte : Sujet : Plusieurs postes d’ATER Informatique (section 27) sont ouverts à l’Université de Montpellier pour l’année 2025-2026 (prise de fonction : 1er septembre 2025). Les personnes recrutées seront affectées dans une des équipes de recherche du département informatique du LIRMM. Nous les invitons à contacter les responsables de la ou des équipes ciblées (adresses mail disponibles sur les pages web respectives des équipes : lien). Concernant l’enseignement, plusieurs composantes d’enseignement sont concernées : 5 postes à la Faculté des Sciences (contact : Stéphane Bessy ) Mots-clés communs à tous les postes : Informatique. 1 poste à l’IUT de Béziers (contact : Benoît Darties ) Mots-clés : Informatique, 3D, Réseaux. Fiche de poste spécifique 2 postes à l’IUT Montpellier-Sète (contact : Gilles Trombettoni ) Mots-clés communs à tous les postes : Informatique. 3 postes à Polytech Montpellier (contact : Christophe Fiorio et Vincent Berry ) Mots-clés pour le poste n°1 : Informatique, Internet, Environnements virtuels, Architecture des machine et des systèmes, Qualité. Mots-clés pour le poste n°2 : Informatique, Internet, Génie Logiciel et programmation, Architecture des machines et des systèmes, Performance. Mots-clés pour le poste n°3 : Informatique, Bases de données, Bigdata, Data analytics. Les personnes candidates peuvent prendre contact avec les composantes d’enseignement pour plus d’informations. Les informations pour candidater sont disponibles sur la page suivante : https://umontpellier.nous-recrutons.fr/poste/wzk6smtbbj-ater-section-27-informatique-fh/. Date limite de candidature : 3 mars. Profil du candidat : Formation et compétences requises : Adresse d’emploi : Université de Montpellier Mar 28 Fri 2025 Offre en lien avec l’Action/le Réseau : DatAstro/– — – Laboratoire/Entreprise : CNES Durée : 1 an (renouvelable) Contact : antoine.basset@cnes.fr Date limite de publication : 2025-03-28 Contexte : Space missions have always recorded electromagnetic signals, from infrared light to gamma rays. Expected to launch in 2037, ESA’s large-class mission LISA (Laser Interferometer Space Antenna) will survey gravitational wave signals from space. As the world’s first in-orbit instrument to probe space-time itself, this is one of the most ambitious science missions ever. LISA promises a wealth of new science, allowing us to test our understanding of general relativity and to open a new window for astrophysics and cosmology. The data analysis for this mission will have to disentangle superposed signals from a variety of astrophysical sources, as well as modeling the instrumental noise. This Global Fit is to be tackled in a Bayesian inference framework. The computational challenge will be massive, expected to be about an order of magnitude heavier than the data processing of the recent ESA mission Euclid, in optimistic scenarios. As a consequence, the scientific community is looking for technological and algorithmic breakthroughs, e.g. relying on GPUs, sparsity-based modeling or artificial intelligence. Sujet : LISA is expected to detect several kinds of gravitational wave sources, such as white dwarf, neutron star or black hole binaries orbiting in very different configurations. White dwarf binaries in our galaxy (known as galactic binaries, GBs) should be the most numerous sources and have relatively simple signals (quasi-monochromatic); massive black hole binary mergers (MBHBs) will provide a handful of very loud coalescence signals, while extreme mass ratio inspirals (EMRIs) are the most complex and come with a huge uncertainty on the number of occurrences over LISA’s lifetime. In fact, little is known on EMRIs’ analysis, and they could just as easily be negligible or dominate the Global Fit. Certainly, LISA’s data stream will be a continuous superimposition of these many signals together with instrumental noise. The inference of the parameters of each source will require source separation, complicating the estimation of their posterior distributions which is already challenging for isolated gravitational events. When separation is not possible (most notably for GBs), the number of superimposed sources becomes an unknown and the signals themselves form a confusion background comparable to noise; trans-dimensional analysis is then required, which yields additional complexity. To tackle the challenge of the Global Fit, the currently envisioned approach relies on a Markov chain Monte Carlo (MCMC) strategy, with block Gibbs sampling across the classes of sources (and the noise level) to reduce the complexity. Even using this trick, existing pipeline prototypes are computationally expensive and scale badly. In addition to the computational complexity of the MCMC itself, convergence is hindered by the difficulty of initializing the GlobalFit efficiently, and that of modeling effectively the noise and stochastic background signal. One way to radically speed up computation and lower resource consumption is to find shortcuts in the algorithms. Various Machine Learning (ML) approaches recently showed promising results for greatly accelerating the Global Fit, such as likelihood-free inference, which bypasses the likelihood computation completely, or surrogate-based source search, which rely on extremely fast approximate models to separate sources and initialize the GlobalFit close to the solution. The proposed PostDoc project aims at developing and benchmarking ML methods to boost the Global Fit convergence. Profil du candidat : PhD on gravitational waves and/or machine learning methods. Your application must include – a recommendation letter from your Ph.D. supervisor – a detailed CV including university education and work experience – a list of publications – a 2-page description of the work undertaken during the course of your PhD. For more Information, contact : Directeur de Recherche antoine.basset@cnes.fr Submit the complete application online (Apply) before March 14th, 2025 Midnight Paris time. Webpage : https://recrutement.cnes.fr/fr/annonce/3487221-25-285-on-the-use-of-machine-learning-methods-to-boost-lisa-s-global-fit-31400-toulouse Formation et compétences requises : Adresse d’emploi : CNES, Toulouse. Your application must include a recommendation letter from your Ph.D. supervisor, a detailed CV including university education and work experience, a list of publications, a 2-page description of the work undertaken during the course of your PhD. For more Information, contact : Directeur de Recherche antoine.basset@cnes.fr Submit the complete application online (Apply) before March 14th, 2025 Midnight Paris time. Mar 31 Mon 2025 Offre en lien avec l’Action/le Réseau : TIDS/– — – Laboratoire/Entreprise : Laboratoire ICube, Strasbourg Durée : 6 mois Contact : seo@unistra.fr Date limite de publication : 2025-03-31 Contexte : Human motion generation is a key task in computer graphics, crucial for applications involving virtual characters, such as film production or virtual reality experiences. Recent deep learning methods, particularly generative models, started to make significant contributions in this domain. While early neural methods focused on the unconditional generation of vivid and realistic human motion sequences, more recent methods guide the motion generation using various conditioning signals, including action class, text, and audio. Among them, the diffusion-based model has shown significant success, dominating research frontiers. Sujet : Motivated by these recent successes, we will develop action-conditioned human motion generator based on a diffusion model. In particular, we will aim at the generation of daily actions in residential settings, in the view of augmenting training data for the action recognition models. To achieve this goal, we will deploy a diffusion-based motion generation, based on our previous works. To condition the generation using an action class or a text description, we will adopt CLIP as a text encoder to embed the text prompt and use a trainable tensor as embeddings for different action classes. Profil du candidat : − Solid programming skills in Python − Working skills in Blender for 3D modeling and animation − Experience in Deep Learning (Diffusion model) − Good communication skills Formation et compétences requises : Adresse d’emploi : 2 Rue Marie Hamm 67000 Strasbourg Document attaché : 202411071348_Stage-3D Human Motion Diffusion Model.pdf Apr 1 Tue 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Mines Saint-Étienne / LIMOS Durée : 24 mois Contact : antoine.zimmermann@emse.fr Date limite de publication : 2025-04-01 Contexte : We are recruiting a post-doctoral researcher in computer science that will contribute to European university EULiST. This is fixed-term contract of 24 months allocated to department Informatique et systèmes intelligents (Intelligent systems and informatics or ISI) at Institut Henri Fayol, one of the 5 research and training centres of Mines Saint-Étienne. Moreover, the research of the employee will be conducted in the Laboratoire d’informatique, de modélisation et d’optimisation des systèmes (Laboratory of Informatics, Modelling and Optimisation of Systems or LIMOS). Sujet : The researcher would contribute to EULiST, an alliance of 10 universities in Europe, on tasks related to the digital campus that aims at collecting data and knowledge about courses, teaching material, library resources, and generally, university knowledge across the alliance. The post-doctoral researcher will have to get involved in Tasks 2.2 and 2.3 of EULiST that focus around EULiST knowledge hub hosted by Leibniz University Hannover. In addition, we expect the researcher to: – In collaboration with other partners, contribute to a knowledge model or knowledge models to describe common university resources (such as courses, study programmes, publications, and so on); – Instantiate the model by collecting, extracting and transforming available data into a knowledge graph, compatible with Leibniz University’s knowledge hub; – Work on interoperable platform architectures for data/knowledge access and interchange; – Contribute to existing platform prototypes at Institut Mines-Télécom, such as Data-AI Competences Platform and Teralab’s software resource catalogue. Profil du candidat : To do this, we are looking for talented researchers who own a PhD degree on topics that relate to the Semantic Web, the Web of Data, and knowledge graphs. Particularly, we seek a person with: – Very good knowledge of at least several of these standards: RDF, SPARQL, OWL, SHACL, LDP; – Experience in developing software with these technologies; – A capacity to abstract problems and generalise solutions to cover a broad spectrum of applications or fields; – Good autonomy and some level of leadership towards managing students’ projects; – Good communication skills in English and ease to evolve in an international and multicultural context. To prove their value, candidates must provide a CV that mentions their publication record and research project experience. Candidates must also write a convincing motivation letter. Letters mostly written by generative AI are usually generic and dull, therefore they are likely to reduce the chance to obtain an interview. Formation et compétences requises : PhD in computer science, with an academic record showing skills in Semantic Web, Linked Data, knowledge engineering. Application must be made through the recruitee platform at https://institutminestelecom.recruitee.com/o/post-doctoral-researcher-in-computer-science-24-months Adresse d’emploi : Mines Saint-Étienne 158 cours Fauriel CS 62362 42023 Saint-Étienne Cedex 2 France Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LORIA / Université de Lorraine Durée : postes fonctionnaire Contact : fabien.lauer@loria.fr Date limite de publication : 2025-04-01 Contexte : Sujet : 4 postes de maîtres de conférences et 2 postes de professeurs en informatique sont ouverts à l’Université de Lorraine avec une affectation recherche au LORIA (www.loria.fr). Les candidats et candidates doivent impérativement prendre contact avec les responsables des équipes du laboratoire et les composantes d’enseignement. — 2 postes PR à l’école des Mines de Nancy et à l’IUT Charlemagne (Nancy). En recherche, ouverts au recrutement dans toutes les équipes du LORIA. En enseignement, profilés robotique – CPS à l’école des Mines et profilé pour le département MMI à l’IUT Charlemagne. — 2 postes MCF ouverts en recherche au recrutement dans toutes les équipes des départements D1 « Algorithmique, calcul, image et géométrie », D2 « Méthodes formelles » et D3 « Réseaux, systèmes et services » au LORIA. Pour l’enseignement : 1 affectation à la Faculté des Sciences et Technologie (Nancy) avec un profil ouvert (Programmation, Algorithmique, Mathématiques Discrètes, Web, Réseaux, Génie Logiciel, Bases de Données) ; 1 affectation à Telecom Nancy profilée sur les domaines des systèmes connectés et du génie logiciel (Systèmes connectés, systèmes distribués, génie logiciel, programmation système, développement logiciel, cybersécurité, cloud). — 2 postes MCF ouverts en recherche au recrutement dans toutes les équipes des départements D3 « Réseaux, systèmes et services », D4 « Traitement automatique des langues et des connaissances » et D5 « Systèmes complexes, intelligence artificielle et robotique » au LORIA. Pour l’enseignement : 1 affectation à l’IDMC (Nancy) profilée pour la formation MIAGE (Informatique, BD, SI, SI distribué, big data, cloud, BI). 1 affectation à l’IUT de Metz profilée sur le parcours Réalisation d’applications (Développement d’applications, Programmation système). Plus d’informations sur https://www.loria.fr/fr/emplois/ Profil du candidat : Formation et compétences requises : Adresse d’emploi : Nancy ou Metz Apr 4 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : Prime Analytics Durée : CDI Contact : majdi.ghorbel@telecom-paris.fr Date limite de publication : 2025-04-04 Contexte : Prime Analytics est une société française spécialisée dans la transformation digitale et l’analyse de données. Nous aidons les entreprises, notamment dans le secteur bancaire, à optimiser leurs processus grâce à des outils modernes comme Alteryx, Power BI, et Tableau. Nous développons des solutions basées sur l’intelligence artificielle pour résoudre des problèmes complexes liés à la finance, à la gestion des risques, et à la conformité. Sujet : Développement et optimisation de solutions innovantes en intelligence artificielle, centrées sur les systèmes multi-agents ou les graphes orientés, dans un contexte financier. Les missions incluent la conception d’algorithmes avancés, l’intégration de frameworks spécialisés (Neo4j, PyTorch Geometric, JADE), et la publication de recherches de haut niveau. Profil du candidat : Nous recherchons un(e) docteur(e) ayant récemment soutenu sa thèse ou sur le point de le faire, passionné(e) par les systèmes multi-agents ou la théorie des graphes, avec une expertise démontrée en intelligence artificielle et un intérêt marqué pour le secteur financier Formation et compétences requises : Doctorat en intelligence artificielle, science des données, ou domaine connexe. Expérience en apprentissage automatique (y compris renforcement multi-agents ou réseaux de neurones sur graphes). Maîtrise de frameworks spécialisés tels que JADE, PyTorch Geometric, Neo4j, ou LangChain. Connaissance des techniques de modélisation et d’explicabilité des systèmes IA. Solides compétences en programmation (Python, C++) et en gestion de projets collaboratifs. Fort intérêt ou expérience préalable dans le secteur financier. Adresse d’emploi : Paris, France (télétravail partiel possible jusqu’à 3 jours par semaine) Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIFO, Orléans, France Durée : 1 year (around 2600€ Contact : marcilio.desouto@univ-orleans.fr Date limite de publication : 2025-04-04 Contexte : The JUNON project is granted from the Centre-Val de Loire region through an ARD program (Ambition Recherche Développement). The project is lead by BRGM (Bureau de Recherches Géologiques et Minières) and involvesUniversity of Orléans (LIFO), University of Tours (LIFAT), CNRS, INRAE, ATOS and ANTEA companies. The main goal of JUNON is to develop digital twins to improve the monitoring, understanding and prediction of environmental resources evolution and phenomena, for a better management of natural resources. Digital twins will allow us to virtually reproduce natural processes and phenomena using combinations of AI and environmental tools. They will rely on geological and meteorological data (time series) and knowledge, as well as physical-based models. JUNON project is organized into 5 work packages (WP): 1. User’s needs and geological knowledge for ground water 2. User’s needs and biological/chemical knowledge about pollutants and greenhouse gases 3. Data management and data mining 4. Times series predictions 5. Aggregation and realization of digital twins The postdoc program will be supervised by LIFO-CA and will be in WP4, focusing on time series forecasting. There will be strong interactions inside WP4 with other postdocs and PhD in LIFO or LIFAT, with WP1 and WP3 (BRGM) with engineers. The CA team is a dynamic team with 9 PhD students. We work on Machine Learning, Data Mining and Deep Learning and are interested, among other things, in knowledge integration and explicability in ML/DM methods. Sujet : In many domains, various algorithms can be considered candidates for solving particular problems. One of the most challenging tasks is to predict when one algorithm is better than another for solving a given problem. Traditional approaches to predicting algorithm performance often involve costly trial-and-error procedures. Other approaches require specialized knowledge, which is not always easy to acquire. Meta-learning approaches have emerged as effective solutions, capable of automatically predicting algorithm performance for a given problem (Bradzil et al., 2022;Vanschoren, 2019). Thus, such approaches could help non-expert users in the algorithm selection task. There are different interpretations of the term “meta-learning”. Here we use the term “meta-learning” to refer to the automatic knowledge generation process that relates the performance of algorithms – in particular machine learning and data preprocessing techniques – to the characteristics of the problem (i.e., the characteristics of its datasets). As an automatic algorithm selection technique, meta-learning does not imply being limited to machine learning algorithms. Therefore, the application of this approach to “classical” predictive models is also envisaged. This typically requires the intervention of experts to parameterize these models in order to build the set of metadata necessary for the “meta-learner”. The BRGM in particular and, more broadly, the consortium of this proposal, has many forces capable of parameterizing these different models (empirical, physical or statistical), thus opening the scope to all environmental predictive techniques. By using meta-learning, our objective is therefore to provide a framework for linking a set of time-series data representing an environmental problem, possibly associated with a priori knowledge, with a pipeline of data mining algorithms (e.g., preprocessing and supervised learning algorithms). In particular, it will aim to give environmental experts a certain autonomy, in the context of the construction of digital twins, and thus limit their dependence on digital experts on this issue (Garcia et al., 2018; Talkhi et al., 2024). Bibliography Brazdil, P., Van Rijn, J. N., Soares, C., & Vanschoren, J. (2022). Metalearning: applications to automated machine learning and data mining. Springer Nature. Garcia, L. P., Lorena, A. C., de Souto, M. C., & Ho, T. K. (2018, August). Classifier recommendation using data complexity measures. In 2018 24th International Conference on Pattern Recognition (ICPR) (pp. 874-879). IEEE. Talkhi, N., Akhavan Fatemi, N., Jabbari Nooghabi, M., Soltani, E., & Jabbari Nooghabi, A. (2024). Using meta-learning to recommend an appropriate time-series forecasting model. BMC Public Health, 24(1), 148. Vanschoren, J. (2019). Meta-learning. Automated machine learning: methods, systems, challenges, 35-61. Profil du candidat : – Good experience in data analysis and machine learning is required. – Experiences/knowledge in time series prediction and environmental science are welcome. – Curiosity and ability to communicate (in English or French) and to work in collaboration with scientists in environmental science. – Ability to propose and validate new solutions and to publish the results. – Autonomy and good organizational skills. Candidates are invited to send a pdf file that contains: – A short CV, with descriptions of your thesis and experiences in machine learning, including deep learning(including projects you were involved in) – A motivation letter – contact information for two references – Deadline for submission of application: March 15th, 2025. Formation et compétences requises : PhD in machine learning (computer science or applied mathematics) Adresse d’emploi : LIFO (Laboratoire d’Informatique Fondamentale d’Orléans) – Constraints and Machine learning (CA) team. Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIFO (équipe Contraintes et Apprentissage), Univer Durée : Prise de fonction au Contact : guillaume.cleuziou@univ-orleans.fr Date limite de publication : 2025-04-04 Contexte : L’Université d’Orléans recrute un(e) Maître de Conférences en Informatique (section CNU 27) pour un poste au sein du Laboratoire d’Informatique Fondamentale d’Orléans (LIFO, équipe Contraintes et Apprentissage). Le poste est rattaché à l’UFR Sciences et Techniques. Informations pratiques : · Date de prise de fonction : 1er septembre 2025. · Lieu : Université d’Orléans, Département Informatique, UFR-ST. · Dépôt des candidatures : exclusivement via l’application Galaxie. Pour plus d’informations : Contact scientifique : Marcílio Pereira de Souto (responsable de l’équipe CA) Email : marcilio.desouto@univ-orleans.fr Contact enseignement : Laure Kahlem (responsable du Département Informatique) Email : laure.kahlem@univ-orleans.fr Sujet : Le/la candidat(e) retenu(e) rejoindra l’équipe Contraintes et Apprentissage (CA) du LIFO, reconnue pour ses travaux en intelligence artificielle et apprentissage automatique. Les thématiques prioritaires incluent : · Apprentissage supervisé, non supervisé et par renforcement ; · Explicabilité des modèles et intégration de connaissances ; · Modèles de langage de grande taille (LLM) et traitement automatique du langage (TAL) ; · Apprentissage profond et sous contraintes. Profil d’enseignement : Le/la candidat(e) contribuera à l’enseignement dans les domaines suivants : · Programmation avancée (Java), conception orientée objet, frameworks web, services web ; · Intelligence artificielle, apprentissage automatique et profond. Profil du candidat : Formation et compétences requises : Qualifications requises : · Doctorat en informatique ou domaine connexe. · Solides compétences en enseignement et recherche. · Capacité à encadrer des étudiants (stages, projets de recherche). Adresse d’emploi : Université d’Orléans, LIFO, Département Informatique, UFR-ST. Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LITIS (UR 4108) / INSA Rouen Normandie Durée : 2 x 12 months Contact : cecilia.zanni-merk@insa-rouen.fr Date limite de publication : 2025-04-04 Contexte : Formerly referred to as “General Services,” the concept of the work environment encompasses the integrated system of support mechanisms designed to enhance workplace life. It contributes significantly to value creation across three dimensions: employees (well-being at work), organizations (productivity and cost control), and the broader environment (e.g., carbon footprint reduction). In France alone, this sector generates over 100 billion euros annually (excluding rents) and sustains more than 1 million jobs, the majority of which are non-relocatable (https://www.idet.fr/etudes/etude-2020-lenvironnement-de-travail-en-france/). The COVID-19 pandemic marked a pivotal shift in work practices, elevating the role of workplace management teams from a commodity-based service to a strategic function integral to organizational performance. This transformation has highlighted several critical challenges in reshaping the relationship between companies and their employees: 1. Challenges for Companies: o Rising levels of employee disengagement, compounded by post-Covid effects, declining productivity, and increased absenteeism and turnover. o The imperative to reduce the carbon footprint of workplace environments presents a significant challenge. o The absence of standardized methods for mapping and measuring employee- and building-related services, which set back efforts to enhance productivity and cost efficiency. 2. Challenges for Employees: o A growing demand for meaningful work and alignment with organizational values. o The pursuit of work-life balance and overall well-being. o Increased recognition and consideration of second-line workers. Despite its growing importance, limited formal research exists on the interplay between the efficiency of a company’s work environment and its economic, environmental, and societal performance. Consequently, organizational leaders often undervalue the role of the work environment in driving overall performance. Enhanced assessment methods are essential to improve the work environment’s efficiency and optimize its contributions to the economic, environmental, and societal value generated by companies. Sujet : The IMMOTEP project aims to achieve the following objectives: 1. Measure the Contribution of the Work Environment: o Enhance the ability to attract and retain employees. o Foster employee commitment, health, and productivity. o Optimize economic control and efficiency of the working environment. o Improve environmental sustainability and reduce the carbon footprint. 2. Develop a Comparative Index: o Create a multi-dimensional index enabling comparisons across similar organizations. o Integrate dimensions of economic, social, and environmental performance into a single framework. 3. Provide Future-Oriented Recommendations: o Offer actionable insights to improve the value of the work environment across diverse sectors. To meet these objectives, the project will focus on the following strategies: • Comprehensive Cost and Impact Assessment: Evaluate the cost implications of the work environment, its carbon footprint, and its influence on employee engagement. • Development of Industry-Recognized Indicators: Design a standardized data collection framework and define operational indicators tailored to the unique requirements of various sectors. • Data-Driven Insights for Value Creation: Collect and analyze extensive data to identify areas where value can be generated within the work environment at the organizational or building level. This analysis will provide a foundation for implementing targeted, impactful actions. Profil du candidat : We are seeking two highly motivated post-doctoral researchers with expertise in one or more of the following areas: machine learning, deep learning, data mining, knowledge-graph mining, or ontology development. Successful candidates will join the LITIS laboratory at INSA Rouen Normandie, collaborating with a diverse and interdisciplinary team of students and postdoctoral researchers in a vibrant and dynamic environment. Formation et compétences requises : This interdisciplinary research requires proficiency in at least one of the following domains: 1. Technical Expertise: o Machine learning or deep learning techniques. o Development and exploitation of ontologies or knowledge graphs. o Experience in designing hybrid AI approaches (inductive and deductive reasoning) for decision-making is considered an advantage. 2. Soft Skills: o Strong communication abilities. o Proficiency in English is essential; fluency in French would be a valuable asset. Position Details • Duration: 2 x 12 months, with the possibility of renewal depending on project needs and funding. • Start Date: Immediate. Interested candidates are encouraged to send: 1. A comprehensive CV. 2. A brief email summarizing your motivation and context for applying to this position. Applications will be reviewed on a rolling basis, so early submissions are strongly encouraged. Adresse d’emploi : INSA Rouen Normandie Apr 30 Wed 2025 Offre en lien avec l’Action/le Réseau : BigData4Astro/– — – Laboratoire/Entreprise : INRIA / CRAL Durée : 12+12 months Contact : olivier.flasseur@univ-lyon1.fr Date limite de publication : 2025-04-30 Contexte : The observation of the close environment of stars can reveal the presence of exoplanets and circumstellar disks, providing crucial information for a better understanding of planetary system formation, evolution, and diversity. Given the very small angular separation with respect to the host star and the huge contrast between the (bright) star and the (faint) exoplanets and disks, reconstructing images of the immediate vicinity of a star is extremely challenging. In addition to the use of extreme adaptive optics and a coronagraph, dedicated post-processing methods combining images recorded with the pupil tracking mode of the telescope are needed to efficiently suppress the nuisance component (speckles and noise) corrupting the signals of interest [1]. In recent works, we have introduced innovative post-processing methods that combine statistical modeling of the nuisance component with deep learning [2,3,4]. These models achieve state-of-the-art performance, surpassing traditional inverse-problem approaches in detecting point-like sources such as exoplanets. Simultaneously, new algorithms have been proposed to reconstruct the spatio-spectral flux distribution of circumstellar environments — composed of gas and dust forming disk structures where exoplanets form through material accretion. These reconstruction methods jointly estimate the objects of interest and the nuisance statistics using an inverse problem approach [5,6]. Although these methods demonstrate impressive reconstruction quality, there is still room for improvement, particularly near the star where disk components are most affected by starlight contamination. In addition, for both tasks (detection and reconstruction), current algorithms ignore the temporal and spatial variability of the off-axis point-spread function (PSF), affecting exoplanet detection sensitivity, astro-photometric accuracy, and the spatial resolution of the disk reconstructions. In this context, data science developments are decisive to improve the fidelity of circumstellar disk reconstruction, especially for fine and faint structures at short angular separations. These advances will also support future instruments by allowing the design of algorithms addressing scientific challenges outlined in the Extremely Large Telescope (ELT) roadmap, using realistic simulations of astrophysical scenes. Sujet : Research objectives: This postdoctoral project will build on recent advancements by our research team in modeling the nuisance component that corrupts high-contrast total intensity observations. The focus will be on reconstructing circumstellar disks and modeling the signal degradation caused by the measurement process. The key research objectives include: – Integrating deep models of the nuisance component into algorithms dedicated to circumstellar disk reconstruction in total intensity, potentially inspired from deep models we have developed for exoplanet detection. – Incorporating prior information about typical flux distributions in circumstellar environments observed in total intensity. This will involve using dedicated simulators and combining this information with advanced nuisance models in the reconstruction algorithms. – Addressing the spatio-temporal variability of the off-axis PSF. Two open research directions could be explored: *Exploiting metadata, such as adaptive optics telemetry, to track instrumental response variations due to changing observing conditions. *Investigating data-driven approaches to model this variability directly from the science data. Whenever possible, raw sensor data will be considered rather than pre-processed data to better quantify signal degradation from both the measurement and processing stages, and to model and propagate uncertainties end-to-end. This process will involve calibrating and assembling raw data using inverse-problem methods developed in the DDISK ANR project (PI: Maud Langlois). While complementary, the priorities of these research objectives can be adjusted based on the applicant’s expertise. Data and Instruments: The project will focus on developing new processing algorithms using total intensity observations (imaging and spectroscopy, i.e., spatio-temporal-spectral data) from the SPHERE instrument, currently operating on the Very Large Telescope. Once a proof of concept is established, simulations for HARMONI, one of the first-light instruments of the upcoming ELT, may be considered. The algorithms will then be adapted to account for HARMONI’s specific features, particularly its higher spectral resolution. Profil du candidat : Collaboration and Location: The postdoc will be part of a multidisciplinary collaboration. She/he will collaborate with Jean Ponce (ENS-PSL, Paris), Julien Mairal (INRIA, Grenoble) and Olivier Flasseur (CRAL, Lyon). Additional collaborations would involve experts in observational astrophysics, including Maud Langlois (CRAL, Lyon) and Anne-Marie Lagrange (LESIA, Paris). The postdoc will also collaborate with a third-year PhD student at INRIA. The postdoc will be based primarily at INRIA, with regular visits at CRAL. Duration: The initial appointment is for one year, with a possible one-year extension (with other sources of fundings). Desired Skills and Expertise: The candidate should hold a PhD in signal and image processing, applied mathematics, machine learning, computer vision and related fields. A strong interest in physics, pluri-disciplinary research and scientific applications is a plus. Deliverables: The developed algorithms will be disseminated in peer-reviewed journals and relevant conferences in the fields of astronomy and computer science. The associated code will be made public in the time-line of the position. Contacts and Application Process: Applicants should send the following documents to Jean Ponce (jean.ponce@ens.fr), Julien Mairal (julien.mairal@inria.fr), and Olivier Flasseur (olivier.flasseur@univ-lyon1.fr): a CV outlining qualifications and previous experiences, a cover letter detailing research interests, a list of publications, and a list of up to three referees ready to write a recommendation. Requests for additional information on the position can be sent directly by email, and a video-conference could be arranged. Applications will continue to be reviewed until the position is filled. This position falls within a sector subject to the protection of scientific and technical potential (PPST) and therefore, in accordance with regulations, the applicant’s arrival must be authorized by the competent authority of the Ministry of Higher Education and Research (MESR). Formation et compétences requises : Desired Skills and Expertise: The candidate should hold a PhD in signal and image processing, applied mathematics, machine learning, computer vision and related fields. A strong interest in physics, pluri-disciplinary research and scientific applications is a plus. Adresse d’emploi : INRIA (Paris or Grenoble), close collaborations with CRAL (Lyon) Document attaché : 202410281051_Sujet PostDoc PEPR.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : INSA Centre Val de Loire Durée : 24 Contact : cedric.eichler@insa-cvl.fr Date limite de publication : 2025-04-30 Contexte : INSA Centre Val de Loire is offering an opportunity for either a Postdoctoral Researcher or Engineer to join the Petscraft project-team joint with Inria Saclay. We welcome applications from candidates with diverse profiles and backgrounds, as we believe that both types of expertise can bring valuable contributions to our project. The specific responsibilities, objectives, and scope of the position will be tailored to the selected candidate’s qualifications, skills, and experience. We are looking for the successful candidate to start as soon as possible, but we are flexible with the start date to accommodate the right individual’s availability. This position is part of the project ”Making PostgreSQL Deferentially Private for Transparent AI” funded by the french national research agency ANR. The project involves several French research teams working on data protection, from Inria, universities and engineering schools, as well as Dalibo, company expert in PostgreSQL and developing PostgreSQL Anonymizer. The general objective of the project is to propose, implement within PostgreSQL and evaluate a privacy preserving approach for interpreting SQL queries in the sense of differential privacy (DP). These queries will range from the Select-Project-Join-Aggregation (SPJA) form to the export of releases (DUMP) of a part of the database in order to be able to work on it as if it contained no sensitive data. Specifically, the main objective is to extend the anonymization models already integrated in PostgreSQL Anonymizer (pseudonymization, k-anonymization and addition of noise) to other models verifying DP, as well as DP existing and novel relaxations. Sujet : During the first year, the successful candidate will tightly collaborate with Dalibo to extend PostgreSQL Anonymizer with the most promising (in terms of utility) approaches to answering SPJA queries that guarantee DP (or similar models, such as local differential privacy). The main lock of this task is to design this DP mechanism as an extension of the SQL grammar in order to qualify a specific query or function with DP metadata. Possibles objectives for the second year are varied and can be tailored to the selected candidate, with a wide range between implementation and theory. They may include more theoretical contributions, e.g. regarding novel DP relaxations or the impact of semantics and schema on DP. In terms of implementation, they could include, for example, the development of demonstrators, validation and evaluation platforms for the novel models proposed in the project. Profil du candidat : Candidates must hold either a PhD or a master (or equivalent) in Computer Science Formation et compétences requises : The following skills are appreciated: • Knowledge in privacy & anonimization. • Knowledge & experience in databases and database management systems, particularly SQL and PostgreSQL. • Proficiency in programming. Adresse d’emploi : Either Inria Saclay centre, Turing building in Palaiseau or INSA CVL campus Bourges. Document attaché : 202412131026_Postdoc_or_eng_position_DIFPRIPOS.pdf May 9 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : Université Paris Cité, IUT / LIPADE Durée : Poste permanent Contact : camille.kurtz@u-paris.fr Date limite de publication : 2025-05-09 Contexte : Sujet : Un poste de maître·sse de conférences en informatique (section 27) intitulé “programmation et apprentissage profond” est à pourvoir dans la session synchronisée du concours 2025 à l’Université Paris Cité, le laboratoire de rattachement est le LIPADE : http://lipade.mi.parisdescartes.fr/?lang=fr — Profil recherche : Le Laboratoire d’Informatique Paris Descartes mène des travaux de recherches théoriques et appliquées. Les domaines de compétences sont actuellement les systèmes multi-agents, le traitement d’image, les réseaux et les bases de données. Les candidats doivent avoir une solide expérience dans le domaine de l’apprentissage profond. Nous sommes particulièrement intéressés par les candidats dont les recherches portent sur la théorie, les architectures, les méthodes, les algorithmes et les modèles de base, ainsi que leurs applications à des problèmes réels. Les candidats doivent décrire leur plan d’intégration avec l’un des groupes de recherche du LIPADE, et expliquer la pertinence/application de leur expertise avec un (ou plusieurs) des domaines suivants : gestion de données, réseaux/cybersécurité, vision par ordinateur, ou IA symbolique/distribuée. Contact pour l’équipe SIP (Systèmes Intelligents de Perception, https://sip.mi.parisdescartes.fr/) : Camille Kurtz (camille.kurtz@u-paris.fr) Profil enseignement : Le maître de conférences recruté s’intégrera à l’équipe pédagogique du département Informatique de l’IUT Paris Rives de Seine. Les enseignements s’adressent principalement à des étudiants de BUT Informatique et la licence MIAGE. La personne recrutée viendra renforcer l’équipe développement du Département Informatique de l’IUT Rives De Seine où ses compétences en informatique, englobant les aspects fondamentaux et appliqués de l’informatique, seront particulièrement appréciées. Elle contribuera aux enseignements dans les ressources en lien avec l’apprentissage du développement, et concernera prioritairement : la qualité algorithmique, la maintenance applicative et le développement pour applications mobiles. En fonction de ses compétences spécifiques, le candidat recruté pourra prendre en charge et développer de nouveaux enseignements sur des technologies plus avancées ou en émergence. Il est attendu de la personne recrutée qu’elle s’investisse au sein du département et qu’elle soit force de proposition pour contribuer à l’évolution de nos formations, tant pour leur contenu que pour les pratiques pédagogiques. Le Bachelor Universitaire de Technologie d’Informatique : https://iutparis-seine.u-paris.fr/informatique/bachelor-universitaire-de-technologie-informatique/ — La fiche de poste est accessible ici : https://u-paris.fr/wp-content/uploads/2025/02/FichePoste_Etab0755976N_Offre250618.pdf Profil du candidat : Formation et compétences requises : Adresse d’emploi : Paris May 31 Sat 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : CReSTIC, Université de Reims (https://crestic.univ Durée : fonctionnaire Contact : valeriu.vrabie@univ-reims.fr Date limite de publication : 2025-05-31 Contexte : Mots clés recherche : Aide à la décision, Machine Learning pour l’aide à la décision, Capteurs intelligents/Smart sensors, IA embarquée dans les capteurs Mots clés enseignement : Robotique industrielle, robotique de service, automatismes Sujet : RECHERCHE : Les activités de recherche s’inscriront dans les thématiques de recherche du CReSTIC et porteront sur l’instrumentation de capteurs, et l’intégration de approches d’apprentissage machine du capteur à la décision. Il est attendu de renforcer les équipes et chercheurs travaillant dans les domaines scientifiques portés par le CReSTIC en s’inscrivant parmi les thèmes transversaux ; de prendre en charge des encadrements de thèses/stages ; de développer de nouvelles activités collaboratives par le biais de projets structurants académiques et/ou industriels (ANR, Cifre…) ; de participer aux diverses collaborations du laboratoire notamment à travers son axe transverse smart agriculture (INRAe, Exebio, Terasolis, Aérolab, RIBP, etc.). Compétences recherchées : a) Instrumentation, acquisition, traitement de données embarqués pour l’aide à la décision et le contrôle ; b) Fusion d’informations hétérogènes, extraction et sélection de caractéristiques, adaptation des modèles et des algorithmes d’apprentissage, conception d’approches et méthodes permettant une intégration rapide et efficace d’algorithmes sur des architectures embarquées ; c) Intégration dans des applications embarquées, dont la robotique et l’industrie 4.0. Contacts : Valeriu VRABIE, Responsable de l’équipe Traitement du Signal Tél : 06.49.21.53.71 Email : valeriu.vrabie@univ-reims.fr Bart Lamiroy, Directeur du CReSTIC Tél : 06.02.14.69.73 Email : crestic.direction@univ-reims.fr ENSEIGNEMENT : Le candidat devra posséder une expérience en robotique industrielle, de service, open-source et/ou embarquée que ce soit en termes de modélisation, simulation, dimensionnement, commande, intégration ou programmation. Dans ces domaines, il devra s’investir pour le développement d’enseignements et de formations axées thématiquement sur l’industrie du futur en vue d’accroître le caractère innovant et l’attractivité des formations du département. Au-delà de cette thématique, il devra également dispenser des enseignements périphériques à la robotique, principalement en automatismes, et dans une moindre mesure en automatique, informatique industrielle, ou encore capteurs et instrumentation. Il interviendra dans les formations du département EEA et autres formations de l’EiSINe présentes sur le site de Reims (environ 300 étudiants) pour y enseigner sous forme de cours, TD, TP et projets : – Licence SPI parcours EEEA ; – Cycle préparatoire intégré à coloration EEEA ; – Master EEEA parcours Automatique et robotique de service ; – Filières ingénieurs : *Spécialité Automatique et Informatique Industrielle (UTT/URCA) ; *Spécialité Automatique et Génie Électrique ; *Spécialité Mécanique et Génie Industriel ; – Licence Pro Métiers de l’Électricité et de l’Énergie, parcours Chargé de projet en électricité ; Il devra également contribuer à la vie du département EEA : Opérations de promotion des filières, commissions, responsabilités de matières, visites de stagiaires et d’apprentis. Compétences requises : – aptitude au travail en équipe et à la communication ; – capacité à développer des supports pédagogiques (montage de séries de TP notamment) et concevoir ou intégrer des maquettes innovantes ; – prise de responsabilité d’équipements et salles de TP ; – dynamisme et volonté de s’investir dans les formations ; – capacité à répondre aux appels à projets pédagogiques (AMI, PACTE …) ; – accompagnement des challenges robotiques ou d’ingénierie des systèmes : Olympiades FANUC, coupe de France de robotique, Robafis… ; – capacité à enseigner en anglais. Contact : Maxime COLAS – Directeur adjoint EiSINe, Président du département EEA Tél : 06.20.62.43.70 Email : maxime.colas@univ-reims.fr Profil du candidat : Formation et compétences requises : Adresse d’emploi : Recherche : Laboratoire CreSTIC – Campus Moulin de la Housse – Reims Enseignement : Département EEA de l’EiSINe – site de Reims – Campus Moulin de la Housse Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIP6 – Sorbonne Université Durée : indéterminée Contact : bernd.amann@lip6.fr Date limite de publication : 2025-05-31 Contexte : Sujet : Intitulé : MCF IA et approches hybrides pour le traitement et l’analyse de données complexes Lieu : Sorbonne Université – UFR919 – Campus Pierre et Marie-Curie Nature du concours : MCF Section CNU : 27 Filières de formation concernées : Licence et Master d’informatique Laboratoires d’accueil : UMR 7606 – LIP6 Contact Recherche : – LIP6 : Fabrice Kordon (Fabrice.Kordon@lip6.fr) Contacts Enseignement : – Licence d’informatique : Jean-Lou Desbarbieux, directeur (jean-lou.desbarbieux@lip6.fr) – Master d’informatique : Olivier Fourmaux, directeur (olivier.fourmaux@sorbonne-universite.fr) Profil du candidat : Profil Recherche : Le profil de ce poste MCF permet de renforcer les thématiques de recherche sur l’utilisation des approches récentes en IA et leur adaptation pour le traitement et l’analyse de données et des connaissances au sein des trois équipes BD, LFI et MOCAH du LIP6: – Gestion de données et IA, BD : http://www-bd.lip6.fr – IA hybride, explicable, interprétable, LFI : https://lfi.lip6.fr/ – IA pour l’apprentissage de la programmation, MOCAH: https://www.lip6.fr/recherche/team.php?acronyme=MOCAH Formation et compétences requises : Adresse d’emploi : Sorbonne Université – UFR919 – Campus Pierre et Marie-Curie Jun 1 Sun 2025 Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : Laboratoire LISV Durée : 10 mois Contact : olivier.rabreau@uvsq.fr Date limite de publication : 2025-06-01 Contexte : Notre laboratoire de recherche (www.lisv.uvsq.fr) se consacre à l’exploration de nouvelles méthodes pour détecter les troubles neurovisuels, en particulier chez les patients ayant subi un AVC. Dans le cadre de notre projet de recherche “APTICONDUITE”, financé par la Délégation de la Sécurité Routière (DSR), nous utilisons un simulateur de conduite automobile équipé de capteurs biométriques afin de recueillir des données comportementales et physiologiques. Nous recherchons un(e) Data Scientist motivé(e) pour analyser ces données et contribuer au développement d’une méthodologie innovante permettant d’identifier des dysfonctionnements neurovisuels. L’objectif étant de pouvoir proposer une meilleure solution d’accompagnement du diagnostic basée sur la classification de résultats de tests d’aptitude réalisés via le simulateur. Contexte de travail • Le ou la candidat(e) rejoindra une équipe de chercheurs dynamique et en pleine expansion au sein du laboratoire LISV de l’Université de Versailles Saint-Quentin (www.lisv.uvsq.fr). Le laboratoire est membre de l’université Paris-Saclay. Le travail sera effectué dans l’équipe “Robotique interactive” coordonnée par le Pr. Abderraouf Benali qui explore l’interaction entre l’utilisateur et les systèmes robotiques au sein de son environnement. • L’étude s’inscrit dans le cadre du projet de recherche “APTICONDUITE” financé par la Délégation de la Sécurité Routière (DSR). Ce projet est en collaboration avec le centre national d’expertise sur les aides à la mobilité, le CEREMH (www.ceremh.org) et le centre hospitalier de Plaisir (www.ch-plaisir.fr). Conditions • Rémunération brute : 3036.81€/mois • Durée : 10 mois avec possibilité de prolongation selon l’avancée du projet. • Lieu de travail : laboratoire LISV, 10-12 avenue de l’Europe, 78140 Vélizy (France) (poste en présentiel avec possibilité de télétravail) Sujet : Missions • Traiter et analyser les données recueillies via des capteurs biométriques (ECG, suivi oculaire, EEG, etc.) lors des sessions de simulation de conduite. • Mettre en œuvre des techniques d’apprentissage automatique (Machine Learning) pour identifier des patterns liés aux troubles neurovisuels. • Collaborer avec une équipe de chercheurs pluridisciplinaires (neurologues, ingénieurs, psychologues). • Développer et valider des modèles prédictifs afin de détecter les anomalies neurovisuelles chez les patients. • Participer à la rédaction de rapports scientifiques et à la communication des résultats lors de conférences ou de publications. Profil du candidat : • Formation : Doctorat en Science des Données, Informatique, Mathématiques Appliquées, ou domaine connexe. • Compétences techniques : o Maîtrise des techniques de Machine Learning, de classification automatique et de tests de significativité. o Maîtrise des langages de programmation pour le traitement des données. o Expérience dans le traitement de données biométriques, physiologiques ou médicales est un plus. o Connaissance des outils de traitement de signaux (EEG, ECG, suivi oculaire) est un plus. o Maîtrise des bibliothèques telles que TensorFlow, PyTorch, Scikit-learn, etc. • Compétences analytiques : Capacité à interpréter des données complexes et à proposer des solutions méthodologiques adaptées. • Qualités : Autonomie, rigueur scientifique, esprit d’équipe et curiosité pour les applications médicales et les neurosciences. Formation et compétences requises : • Formation : Doctorat en Science des Données, Informatique, Mathématiques Appliquées, ou domaine connexe. • Compétences techniques : o Maîtrise des techniques de Machine Learning, de classification automatique et de tests de significativité. o Maîtrise des langages de programmation pour le traitement des données. o Expérience dans le traitement de données biométriques, physiologiques ou médicales est un plus. o Connaissance des outils de traitement de signaux (EEG, ECG, suivi oculaire) est un plus. o Maîtrise des bibliothèques telles que TensorFlow, PyTorch, Scikit-learn, etc. • Compétences analytiques : Capacité à interpréter des données complexes et à proposer des solutions méthodologiques adaptées. • Qualités : Autonomie, rigueur scientifique, esprit d’équipe et curiosité pour les applications médicales et les neurosciences. Adresse d’emploi : Laboratoire LISV, 10-12 avenue de l’Europe, 78140 Vélizy, France Document attaché : 202409200755_PostV9_French.pdf
|
Offres de thèses
Feb 25 Tue 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : ISEA/UNC Durée : 3 ans Contact : loic.salmon@unc.nc Date limite de publication : 2025-02-25 Contexte : Sujet : Les graphes dynamiques attribués sont omniprésents dans de nombreux domaines, tels que les réseaux sociaux, la biologie moléculaire, ou les systèmes de recommandation. Cette thèse vise à explorer l’utilisation des Graph Neural Networks (GNN) pour l’extraction de motifs dans les graphes, avec un focus sur la génération de règles de classification formelles et explicables. Les travaux incluront la modélisation des motifs, l’apprentissage des motifs, la génération de règles de classification, et leur validation formelle. Profil du candidat : Nous recherchons un(e) candidat(e) motivé(e) avec : 1. Un diplôme de niveau Bac+5 en informatique, mathématiques appliquées, ou domaine connexe. 2. Des compétences en apprentissage automatique, en particulier sur les réseaux de neurones et les GNN. 3. Une appétence pour la théorie des graphes, l’extraction de motifs, et les méthodes formelles. 4. Un bon niveau d’anglais (lu, écrit, parlé). Formation et compétences requises : Adresse d’emploi : Université de la Nouvelle-Calédonie,- BP R4 98851 Nouméa Cedex, Nouvelle-Calédonie ISEA (Institut des Sciences Exactes et Appliquées) Document attaché : 202502110731_Proposition_de_thèse_GNN_et_extraction_de_motifs.pdf Feb 28 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Connected Health Lab (Ecole d’ingénieurs ISIS) Ca Durée : 36 Contact : francis.faux@univ-jfc.fr Date limite de publication : 2025-02-28 Contexte : The aim of the project is to trace the toxic products “inhaled” by firefighters during their various interventions. Sujet : The first stage of the thesis will be to make the real-time acquisition system operational and reliable, and to contextualize it according to the type of fire (apartment, forest). The second objective of the thesis will be: – to study hybrid online and multi-source learning models for modeling the toxicity of different types of fire, in order to infer the duration of exposure to different toxic products (taking into account the randomness of the context) – to develop a medical decision support tool under uncertainty to identify at-risk firefighter profiles. Given a firefighter’s history, it will be possible to deduce the arguments that point to a certain level of risk associated with the development of different diseases. To this end, work on Bipolar Layered argumentative Frameworks could be adapted to temporal data and, if necessary, enriched. Profil du candidat : We are looking for a candidate with a strong AI background, particularly in machine learning. Knowledge of uncertainty modeling in AI will be highly appreciated. Formation et compétences requises : Master2 Adresse d’emploi : Ecole d’ingénieurs ISIS, rue Firmin Oulès, 81100 Castres (france) Document attaché : 202501061422_Thesis-AI_hybrid.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire MIS – Université de Picardie Jules Ver Durée : 3 ans Contact : corinne.lucet@u-picardie.fr Date limite de publication : 2025-02-28 Contexte : Sujet : Ce projet de recherche vise à développer un outil d’intelligence artificielle (IA) capable de proposer des scénarios pour le problème de localisation et de dimensionnement des unités mobiles de soins médicaux, afin d’améliorer l’accès aux soins dans les déserts médicaux. L’objectif est de maximiser la couverture du territoire tout en tenant compte des besoins des patients, de la disponibilité des soignants et de l’incertitude de la demande en services de santé. L’outil proposera une solution acceptable, dans la mesure où elle répondra aux besoins de la population. Profil du candidat : Formation et compétences requises : Adresse d’emploi : Université de Picardie Jules Verne, Amiens Laboratoire Modélisation, Information & Systèmes (UR UPJV MIS 4290) Document attaché : 202502031300_LOCMED_2025_stage_diffusion_fr.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : CRISTAL et PhLAM Durée : 36 mois Contact : remy.boyer@univ-lille.fr Date limite de publication : 2025-02-28 Contexte : Abstract: Quantum computing is at the cutting edge of technological innovation, offering the potential to solve complex problems that classical “binary” computers cannot address. Ten- sor algebra, with its comprehensive mathematical framework, offers crucial tools for modeling and approximating large multidimensional datasets. This thesis seeks to investigate the interplay between tensor networks and quantum computing by proposing original, robust (to decoherence of qubits) quantum algorithms that utilize tensor structures to improve computational efficiency and capabilities. This research requires a multidisciplinary understanding of quantum physics and linear algebra. This thesis topic will benefit from the complementary expertises of Remy Boyer (CRISTAL/SIGMA) for the multilinear algebra aspect and Giuseppe Patera (PhLAM, Quantum Information team) for the quantum physics aspect. Key-words: quantum processor, low-rank decomposition, tensor network, qubits, coherence, curse of dimensionality Contact: For application, please contact • Remy BOYER, University of Lille, CRISTAl Lab. , remy.boyer@univ-lille.fr • Giuseppe PATERA, University of Lille, PhLAM Lab. , giuseppe.patera@univ-lille.fr Sujet : Why quantum processors are attractive solutions ? 1. Quantum processors are based on the superposition principle [1]. In brief, unlike classical bit-based processor where the information is encoded in two states “0 excluding 1” or “1 excluding 0”, quantum bits (qubits) |0⟩ and |1⟩ can exist in multiple states simultaneously according to a linear combination of the qubits alphabet α|0⟩ + β|1⟩ 2. Quantum processors are based on the entanglement principle. Qubits can be entangled or correlated, meaning the state of one qubit is directly related to the state of another, regardless of a phase parameter. Consequently, α and β cannot be reduced to a probabilistic point of view as the qubit probabilities but include the relative interdependence in the form of a phase-relation between the two states |0⟩ and |1⟩. This means that knowing the state of one qubit allows to instantly deduce the state of the other. The two above principles (superposition and entanglement) allow quantum algorithms to perform many calculations in parallel. This leads to potential speed-ups for many important problems. Tensor-based processing Tensor algebra is a powerful mathematical framework [6] that extends the concepts of scalars, vectors, and matrices to higher dimensions, known as tensors. Tensor algebra allows the compact (i.e. low-rank) representation of massive data in multidimensional arrays. The applications are for instance Physics, Machine Learning, Data Science, Computer Graphics, Robotics and Control Systems, etc. Multi-Linear algebra and quantum systems 1. Entanglement and Singular Value Decomposition (SVD) are strongly linked [3]. SVD gives the degree of communication between two subsystems and the entanglement is measured by the number of nonzero singular values of a particular matrix associated to the reshaping of the quantum state. 2. TNs and quantum computing are highly interconnected concepts [2]. They provide an efficient way to graphically represent complex quantum states into connected core tensors (3-order tensors). A quantum state of multiple qubits can be expressed as a graph of core tensors, capturing entanglements between qubits in a more compact form. Some quantum algorithms can benefit from the structure of tensor networks. For example, Matrix Product States (MPS) [7] and Projected Entangled Pair States (PEPS) utilize tensor networks to efficiently represent and manipulate quantum. Quantum architecture and decoherence A typical Quantum architecture is composed by three main steps: 1. Data encoding via Tensor Networks (quantum state preparation), 2. data processing (multi-qubit quantum gates), 3. measurement (quantum state tomography). The proposed work will be mainly focused on step 1 with respect to the constraints of the two other steps. A major drawback of the quantum framework is the decoherence of qubits. Qubits are highly susceptible to environmental interference, which can cause them to lose their quantum state or also their coherence. This phenomenon is known as decoherence [10]. Briefly, decoherent quantum computing is classical “bit”-based computing. Research Objectives 1. Investigate TN in the context of the curse of dimensionality: One of the objectifs of this work is to explore the interest of the different TN topologies focusing on their capability to mitigate the “curse of dimensionality” [4]. 2. Develop novel on-line/streaming algorithms: Batch-mode processing is quite inefficient for streaming data. So, there is a need to propose adaptive (over time) implementation of TN [8]. 3. Propose new TN-based algorithm robust to qubits decoherence. Robustness allows to increase the number of qubits in a quantum system while maintaining performance (“scal- ability”). 4. The SVD is the basic building block of TN algorithms. Recently, randomized methods [9] also known under the name of “compressed sensing” [5] allow to speed-up the SVD at the price of a bounded error. References [1] A. Steane, Quantum computing. Reports on Progress in Physics, 61(2), 117, 1998. [2] R. Orus, Tensor networks for complex quantum systems. Nature Reviews Physics, 1(9), 2019. [3] R. Orus, A practical introduction to tensor networks: Matrix product states and projected entangled pair states, Annals of Physics, Vol. 349, 2014. [4] A. Cichocki; N. Lee; I. Oseledets; A.-H. Phan; Q. Zhao; D. P. Mandic, Tensor Networks for Dimensionality Reduction and Large-scale Optimization, Foundations and Trends in Machine Learning, Vol. 9, No. 4-5, 2016. [5] D.L. Donoho, Compressed sensing, IEEE Transactions on IT. 52 (4), 2006. [6] T. G. Kolda and B. W. Bader, Tensor Decompositions and Applications, SIAM REVIEW, Vol. 51, No. 3, 2009. [7] Y. Zniyed, R. Boyer, A. De Almeida, and G. Favier. A TT-based hierarchical framework for decomposing high-order tensors. SIAM Journal on Scientific Computing, vol. 42, 2020. [8] L. T. Thanh, K. Abed-Meraim, N. L. Trung and R. Boyer, “Adaptive Algorithms for Track- ing Tensor-Train Decomposition of Streaming Tensors,” 28th European Signal Processing Conference (EUSIPCO), 2021. [9] N. Halko, P.G. Martinsson, and J.A. Tropp, Finding structure with randomness: Probabilistic algorithms for constructing approximate matrix decompositions. SIAM review, 53(2), 2011. [10] M. L., Hu, and H. Fan, Robustness of quantum correlations against decoherence. Annals of Physics, 327(3), 2012. Profil du candidat : This research requires a multidisciplinary understanding of quantum physics and linear algebra. Formation et compétences requises : Adresse d’emploi : Campus Scientifique de Lille Document attaché : 202412170930_phd_tensor_quantum.tex Mar 1 Sat 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIFAT – Symhonics Durée : 3 ans Contact : chanson@univ-tours.fr Date limite de publication : 2025-03-01 Contexte : L’équipe Recherche Opérationnelle, Ordonnancement et Transport, l’équipe Bases de Données et Traitement des Langues Naturelles (BDTLN) et la société Symphonics proposent un financement de thèse de doctorat à temps plein pour un début au printemps 2025. La thèse sera basée à Tours avec la moitié du temps dans les locaux de l’entreprise et l’autre moitié au sein du laboratoire. La gestion d’un système électrique suppose un équilibre à chaque instant entre production et consommation. Cela ne peut se faire qu’en modifiant soit la production, soit la consommation ; c’est ce que l’on dénomme flexibilités dans le système électrique. L’introduction croissante des énergies renouvelables impose l’augmentation du gisement de flexibilités et notamment celles se trouvant chez les consommateurs représentant une source peu coûteuse pour satisfaire le besoin de décarbonation du mix énergétique, enjeu majeur aussi bien sur le plan écologique, qu’économique et social. C’est le créneau choisi par La société Symphonics qui se positionne sur le marché en proposant de transformer les bâtiments résidentiels et tertiaires en batteries par le pilotage à la hausse et à la baisse des équipements énergivores dont la consommation peut être déplacée dans la journée (par ex. Chauffe-eau, chargeur de véhicule, etc.). Sujet : Cette thèse CIFRE propose de s’attaquer à l’optimisation sous contraintes des équipements consommateurs d’électricité dans les secteurs résidentiel et tertiaire, un enjeu crucial à l’ère de la transition énergétique et de la digitalisation. L’objectif est de développer des modèles et des algorithmes qui permettent de maximiser l’efficacité énergétique et la flexibilité des systèmes tout en respectant les contraintes spécifiques (confort, stabilité du réseau, coûts) associées à ces environnements. L’ensemble des modélisations permettant de définir les meilleurs optimums temps réel possibles nécessite la résolution de plusieurs verrous relevant de l’hybridation de méthodes issues de la science des contraintes et de la science des données. Ces verrous sont abordés sous l’angle de l’optimisation qui peut être formulée comme un problème multi-agents en recherche opérationnelle. Plusieurs agents (la société Symphonics, les clients, les acteurs du réseau électrique) interviennent dans le processus et leurs objectifs propres sont à prendre en compte. Par exemple, certains clients voudront optimiser un niveau de confort en termes de chauffage, et garantir la charge d’un véhicule électrique. A l’échelle du système, la société Symphonics peut vouloir réduire les émissions de CO2 ou les coûts de livraison de l’électricité. Il faut donc optimiser la consommation d’électricité tout en tenant compte des différents objectifs des agents. Dans le contexte de cette thèse, les verrous pour résoudre un tel problème sont nombreux : – Le passage à l’échelle : l’entreprise vise une application pour des centaines de milliers de clients, ce qui reste une difficulté majeure pour une résolution efficace du problème en recherche opérationnelle, dans des temps compatibles avec le scénario industriel (moins de 15 minutes) ; – Cette optimisation doit s’appuyer sur des informations qui devront être prédites au niveau de chaque client au fil du temps, sur la base de la connaissance contextuelle et de préférences (par exemple, prédire la consommation électrique d’un chauffe-eau en hiver heure par heure pour un client donné) ; Comme toute approche reposant sur des modèles prédictifs, une attention particulière devra être apportée à l’explicabilité des solutions proposées. Enfin, l’hybridation de la recherche opérationnelle et de l’apprentissage artificiel prendra son sens pour définir des algorithmes de résolution efficaces du problème. Les méthodes d’apprentissage artificiel pourront notamment permettre de rechercher les meilleurs paramètres de la méthode multi- agents, ou réduire le nombre de clients en utilisant des approches de clustering de flux de données pour obtenir des groupes homogènes des clients au cours du temps. Les modèles et algorithmes feront l’objet de phases de validation empiriques avec les partenaires équipementiers et fabricants de la société Symphonics et seront pilotées par le Doctorant. Profil du candidat : BAC+5. Jeune diplômé ou première expérience Le candidat recruté devra avoir des connaissances solides en Recherche Opérationnelle (complexité, méthodes exactes et heuristiques, programmation mathématique) et en apprentissage artificiel et architectures profondes. Des connaissances en explicabilité seront appréciées. La maîtrise de certains outils logiciels est un plus : Python, Google Cloud Platform, PostgreSQL, Solveur MILP. Formation et compétences requises : Adresse d’emploi : Tours: partage du temps entre Symphonics et le LIFAT. Document attaché : 202411181233_Offre Thèse Symphonics .pdf Mar 16 Sun 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IGN-ENSG, LASTIG, Université Gustave Eiffel Durée : 36 mois Contact : nicolas.audebert@ign.fr Date limite de publication : 2025-03-16 Contexte : L’entraînement de modèles d’apprentissage profond pour l’interprétation d’images aériennes et satellitaires requiert de grandes quantités de données annotées. Toutefois, si d’importants volumes de données d’Observation de la Terre (OT) sont disponibles grâce aux satellites européens Sentinel-2 et aux programmes français d’imagerie SPOT et BDORTHO, cette masse de données est non-étiquetée. En effet, peu d’images de télédétection sont annotées avec des information sémantiques utiles pour entraîner des modèles profonds. Ce phénomène est d’autant plus critique pour la cartographie d’urgence: les catastrophes naturelles sont des événements rares, ce qui réduit d’autant les images disponibles. Pour pallier ces difficultés, la recherche en intelligence artificielle s’est intéressée à la génération de bases de données d’images synthétiques. La popularisation de l’intelligence artificielle dite générative permet ainsi de produire des jeux de données annotés, en générant des images diverses dans des configurations connues. La génération procédurale est en outre un procédé historiquement bien connu dans la communauté du jeu vidéo, permettant de produire rapidement de grands mondes virtuels en trois dimensions. Sujet : L’objectif principal de cette thèse est de combiner les forces de l’apprentissage profond et de la génération procédurale basée grammaire pour les données géospatiales. La génération procédurale désigne les algorithmes de création de contenu, en particulier pour le jeu vidéo. Ces techniques permettent de créer des mondes virtuels cohérents , notamment pour la modélisation et la simulation du réel, La génération procédurale connaît un regain de popularité car elle permet de produire de grands volumes de données synthétiques annotées, sur lesquels entraîner des réseaux de neurones profonds . Historiquement, la génération procédurale s’est appuyé sur quatre grande familles de méthodes: les approches basées exploration, les approches par satisfaction de contraintes, les méthodes basées grammaire et les approches par apprentissage. Les approches basées grammaire (ou assimilées, par exemple basées système-L ) sont particulièrement intéressantes. Elles se fondent sur un langage formel qui définit quelles sont les instances acceptables des objets à générer. Cette grammaire permet d’inclure une connaissance experte et peut être considérée comme interprétable. Cependant, définir manuellement une grammaire requiert une certaine expertise et implique souvent une approche itérative par essai-erreur. En comparaison, la génération procédurale par apprentissage statistique permet d’apprendre à générer des objets à partir d’un corpus existant. Toutefois, les modèles appris sont susceptibles de générer des objets inacceptables (par exemple, des maisons sans aucune porte). Par ailleurs, les approches récentes, notamment par apprentissage profond, nécessitent des jeux de données de grande taille pour exceller, ce qui n’est pas toujours possible. En particulier, les entités géographiques urbaines (typiquement les routes et les bâtiments) doivent respecter des a priori géométriques forts qui peuvent être complexes à satisfaire. Ce sujet de thèse s’intéresse ainsi à l’hybridation entre la génération procédurale symbolique, en particulier exploitant les grammaires, et l’apprentissage profond. Des approches hybrides peuvent permettre d’apprendre à partir de moins d’exemples, tout en respectant mieux les contraintes imposées sur les données par une grammaire. L’objectif est double: 1. Dans un premier temps, il s’agit de concevoir des architectures génératives de réseaux de neurones dont les sorties sont contraintes par une grammaire. Ainsi, le modèle sera garanti de ne générer que des objets acceptables vis à vis d’une grammaire fournie par l’usager . Plus précisément, on s’intéressera: • à contraindre les cartes de segmentation d’un modèle prédictif à respecter une grammaire sur l’agencement spatial des objets, • ou bien à des modèles génératifs qui ne peuvent produire que des objets acceptables selon une grammaire imposée, par exemple de bâtiments. 2. Dans un second temps, de développer des modèles capables d’inférer tout ou partie d’une grammaire à partir d’un corpus d’exemples (génération procédurale inverse et inférence de grammaire). En particulier, on cherchera: • des méthodes capables d’apprendre automatiquement les symboles terminaux du langage, notamment à l’aide de l’apprentissage de prototypes , • puis à des méthodes capables de déduire les règles de production de la grammaire . Ces techniques de génération seront appliquées à divers types de données géospatiales en 2D et 3D pour la génération de villes . En particulier, les applications pourront inclure les plans cadastraux (emprises au sol de parcelles et de bâtiments), des modèles 3D de bâtiments (produits manuellement ou extraits du Lidar HD) ou des cartes d’occupation du sol. Profil du candidat : Le ou la candidate idéale dispose d’une formation de niveau bac+5 (master ou ingénieur) dans l’un des domaines suivants: science des données, jeu vidéo, géomatique. Il ou elle démontre une expérience de la programmation, en particulier avec le langage Python. Une connaissance des outils de gestion projet informatique, notamment Git, sera appréciée. Une bonne maîtrise de l’anglais (écrit et oral) est un pré-requis. Sans être indispensable, une première expérience avec la génération procédurale, les modèles profonds génératifs ou les données géospatiales est un plus. Formation et compétences requises : Adresse d’emploi : LASTIG, IGN-ENSG, 6-8 avenue Blaise Pascal, Champs-sur-Marne Document attaché : 202501071048_doctorant.pdf Apr 4 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : DIG team, Télécom Paris, Institut Polytechnique de Durée : 3 years Contact : nils.holzenberger@telecom-paris.fr Date limite de publication : 2025-04-04 Contexte : Sujet : Hello, We are hiring 2 PhD students to work on combining language models with structured data, starting from September 2025, at Telecom Paris, Institut Polytechnique de Paris. Large Language Models are amazing, and with our research project, we aim to make them even more amazing! Our project will connect large language models to structured knowledge such as knowledge bases or databases. With this, 1. language models will stop hallucinating 2. language models can be audited and updated reliably 3. language models will become smaller and thus more eco-friendly and deployable We work in the DIG team at Telecom Paris, one of the finest engineering schools in France, and part of Institute Polytechnique de Paris — ranked 38th in the world by the QS ranking. The institute is 45 min away from Paris by public transport, and located in the green of the Plateau de Saclay. Excited about joining us? Tick these boxes: 1. Have a good background in natural language processing, machine learning, and knowledge representation 2. Have a master’s degree (or equivalent) 3. Be of European nationality (imposed by our sponsor, the French Ministry of Armed Forces) Check out our Web site to apply: https://suchanek.name/work/research/kb-lm/index.html Fabian Suchanek & Nils Holzenberger Profil du candidat : Formation et compétences requises : Adresse d’emploi : 19 place Marguerite Perey, 91120 Palaiseau, France Jun 5 Thu 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIS Durée : 36 mois Contact : etienne.thuillier@univ-amu.fr Date limite de publication : 2025-06-05 Contexte : Le transport maritime assure 90% des échanges mondiaux de biens et marchandises. D’un point de vue environnemental, il est de loin le moyen de transport le plus efficient à la tonne de marchandise transportée, bien qu’il doive lui aussi relever le défi de réduire significativement ses émissions. Aujourd’hui l’industrie maritime a initié une profonde transformation qui nécessite un effort important d’innovation et de recherche de la part de l’ensemble des acteurs de l’industrie pour lever les verrous technologiques et scientifiques actuels. Le projet TNTM (Transformation Numérique du Transport Maritime) s’intègre dans ce contexte d’optimisation de l’industrie maritime et se propose d’agir sur l’ensemble des acteurs aussi bien en mer que sur terre, pour réussir le pari d’un transport moins-carboné voire décarboné. Ainsi, un des axes pour parvenir à ces objectifs est l’excellence opérationnelle qui vise à optimiser l’usage des navires. Cette excellence opérationnelle est basée sur deux innovations majeures, la première innovation est celle de l’IoT et des données, encore très peu présentes sur les navires et les conteneurs maritimes. La deuxième innovation est liée à l’utilisation d’algorithmes d’optimisation pour améliorer la chaîne logistique maritime du transport par conteneur, en intégrant les dernières avancées de la recherche opérationnelle, des méthodes d’optimisation, de la simulation et du traitement de données (machine learning, etc.). C’est dans ce cadre que se situe cette thèse. Aujourd’hui, de multiples acteurs différents (sites de chargements et déchargements, transporteurs, terminaux, etc.) sont impliqués dans le transport d’un conteneur. Chaque passage de responsabilité entre deux acteurs crée un risque de mauvaise exécution du plan de transport et cette chaîne logistique est désynchronisée. Il n’existe souvent aucune contextualisation dynamique du plan de voyage du conteneur, et ce, même en ayant connaissance des données issues du conteneur intelligent. Par exemple, les zones d’intérêts géographiques (ZOI) du plan de voyage sont créés manuellement par les utilisateurs et les clients. Autre exemple, des surveillances et des extractions manuelles des données sont réalisées quotidiennement pour fournir des alertes et des informations au client face à des événements inattendus. Sujet : Le contexte scientifique de cette thèse relève du Trajectory (Data) Mining, i.e., un ensemble de techniques visant à explorer, analyser, et fouiller des données spatio-temporelles issues des trajectoires d’objets mobiles. Différentes problématiques sont associées à ce domaine, comme par exemple l’analyse exploratoire, le clustering de trajectoires, la classification, la détection d’anomalies, etc. Parmi les nombreuses problématiques liées à ce domaine, nous nous focaliserons dans cette thèse sur : (1) la reconstruction géographique des trajectoires à partir de données de géopositionnement de conteneurs maritimes, et (2) l’enrichissement sémantique des trajectoires, notamment par l’identification dynamique de ZOI. Il existe de nombreux modèles mathématiques pour reconstruire des trajectoires à partir du clustering ou de l’identification de patterns dans des données spatio-temporelles. L’algorithme DBscan, et ses variantes, sont souvent les plus utilisés car bien adaptés aux traces de positionnement fournies par les technologies GNSS (Global Navigation Satellite System) ou aux données issues des télécommunications ou du radiopositionnement (Call Detail Records, indoor-positioning, etc.). Le challenge ici réside dans l’application de tels modèles à des données à grosse granularité temporelle comme celles utilisées dans le projet TNTM et qui sont des données AIS (Automatic Identification System). Concernant l’enrichissement sémantique des trajectoires, le problème consiste à représenter et exploiter un ensemble d’informations contextuelles telles que la détection du mode de transport, le motif et le contexte de déplacement, la découverte des zones d’intérêts, etc. Dans le cadre de cette thèse nous nous limiterons à la détection automatique des ZOI et à leur classification. L’extraction de ZOI à partir de données spatio-temporelles se base généralement sur les algorithmes de reconstruction des trajectoires. On observe toutefois un recours accru aux données issues des connaissances terrain (données sursol, connaissance métier, etc.) pour enrichir et affiner la reconstruction de telles zones. C’est sur ce dernier point que nous concentrerons nos efforts pour développer un modèle de classification des ZOI. Les principaux objectifs du projet de thèse sont les suivants : * Analyser la qualité des données issues des conteneurs intelligents. * Concevoir un modèle de représentation des trajectoires. * Identifier les ZOI et leur emprise spatiale à partir des trajectoires spatio-temporelles des conteneurs. * Classifier ces ZOI en fonction des informations contextuelles et des connaissances métier de notre partenaire industriel dans le projet TNTM. Profil du candidat : * Titulaire d’un master 2 ou diplome d’ingénieur en informatique Formation et compétences requises : * Solides compétences en apprentissage automatique (machine learning) * Solides compétences en programmation objet et bases de données (python est un plus) * Bonne expérience en statistiques * Connaissances sur les SIG * Bonne communication orale et écrite en français et anglais Adresse d’emploi : Laboratoire LIS, Marseille (Campus St Jérôme) Document attaché : 202205091335_Thesis_TNTM.pdf Jun 30 Mon 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIFAT (Laboratoire d’Informatique Fondamentale et Durée : 3 ans Contact : frederic.rayar@univ-tours.fr Date limite de publication : 2025-06-30 Contexte : Cette offre de thèse s’inscrit dans le cadre du projet « Fact Checking » mené depuis 2021 entre le laboratoire LIFAT et l’équipe PRIM (chercheurs en Science de l’Information et de la Communication). Le fact checking, ou vérification de fait, consiste à vérifier la véracité des faits présentés dans les médias par des personnalités publiques ou autres organisations. De nombreux travaux de recherches ont été et sont en train d’être menéspour répondre à l’enjeu majeur de la désinformation, notamment depuis l’avènement des technologies de deep-fake et d’IA génératives. Ce phénomène de désinformation massive est observable dans plusieurs domaines : on peut citer en particulier la sphère politique (« political discourse »), le changement climatique ou encore le domaine de santé (« COVID-19 misinformation »). Cette thèse vise à la conception et à l’évaluation de nouvelles techniques de détection multimodale (vidéo, image, audio, texte) dans du contenu multimédia (vidéo, audio). Sujet : Cette thèse vise à la conception et à l’évaluation de nouvelles techniques de détection multimodale (vidéo, image, audio, texte) dans du contenu multimédia (vidéo, audio). Pour ce faire, la thèse explorera l’utilisation de concepts d’IA à différents niveaux « Audio-visual Active Speaker identification » (ASD), « Multimodal Named Entity recognition » (MNER), « Retrieval-Augmented Generation » (RAG), etc., et l’exploitation d’une base de données de fait vérifiés existante (base de données issue de travaux précédents ou benchmark existants). Par ailleurs, compte-tenu de l’impact sociétal de ces travaux, un fort accent sera mis sur l’explicabilité des algorithmes multimodaux proposés, en agrégant différentes solutions : récupération d’information tierces via la recherche d’information, génération textuelle, visualisation d’élément saillant dans les images/vidéos, isolation des séquences d’intérêt dans les pistes audio/vidéos, etc. Enfin, durant la réalisation de ces travaux de recherche, il s’agira aussi de tenir compte des verrous théoriques et empiriques de l’acception des citoyens d’un tel outil via les notions d’interactions avec les outils développés, et de visualisation interactive et d’ergonomie. Ces aspects seront abordés via une collaboration avec des chercheurs en sciences de l’information et de la communication ou des journalistes et fact-checkers. Profil du candidat : M2 en informatique ou diplôme d’ingénieur Bonnes connaissances en Machine Learning et Intelligence Artificielle Bonnes connaissances en programmation indispensables Des compétences en développement web sont souhaitables Bonnes capacités de communication et de rédaction, en particulier en anglais Formation et compétences requises : Adresse d’emploi : Laboratoire d’Informatique LIFAT Équipe RFAI (Reconnaissance des Formes et Analyse d’Images) 64 avenue Jean Portalis – 37200 – Tours Document attaché : 202502101508_2025_PhD_lifat_v3.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : IRISA Durée : 36 months Contact : tristan.allard@irisa.fr Date limite de publication : 2025-06-30 Contexte : This PhD offer is funded by the PEPR Cybersecurity IPoP project (https://files.inria.fr/ipop/) and proposed by the Security and Privacy team (SPICY, https://www-spicy.irisa.fr/) from the IRISA institute (https://www.irisa.fr/en) in Rennes, France. The work will be supervised jointly by Tristan Allard (PhD, HDR, https://people.irisa.fr/Tristan.Allard/) associate professor at the University of Rennes, expert in privacy in data intensive systems, and Barbara FILA (PhD, HDR, http://people.irisa.fr/Barbara.Fila/), associate professor at INSA Rennes, expert in formal methods for risk assessment. The successful candidate will be working at IRISA — the largest French research laboratory in the field of computer science and information technologies (more than 850 people). IRISA provides an exciting environment where French and international researchers perform cutting edge scientific activities in all domains of computer science. Rennes is located in the West part of France in the beautiful region of Brittany. From Rennes, you can reach the sea side in about 45~minutes by car and Paris center in about 90~minutes by train. Rennes is a nice and vibrant student-friendly city. It is often ranked as one of the best student cities in France. Rennes is known and appreciated for its academic excellence, especially in the field of cybersecurity, its professional landmark, the quality of its student life, the affordability of its housing offer, its rich cultural life, and much more. Sujet : Context and goal Health data, social networks, electricity consumption… Vast quantities of personal data are collected today by private companies or public organizations. Various legal, monetary, or visibility incentives push data holders to envision sharing versions of the collected datasets that provide both statistical utility and privacy guarantees. Indeed, sharing data at large, e.g., as open data, without jeopardizing privacy, is expected to bring strong benefits (strengthening, e.g., scientific studies, innovation, public policies). Synthetic data generation is a promising approach. First, synthetic data generation algorithms aim at generating datasets that are as close as possible to the original datasets. Either synthetically generated data or the generative models trained over the original data could be shared for supporting elaborate data analysis. Second, substantial progress has been made during the last decade about the privacy guarantees of synthetic data generation algorithms. For example, there exist today synthetic data generation algorithms that satisfy variants of differential privacy, one of the most prominent family of privacy models [2]. However security is a constant race between the attackers and the defenders. A large number of attacks exists and keeps growing [5]. As a result, because of the complex environment in which synthetic data generation takes place (e.g., utility needs, diversity of information sources, diversity of data generation algorithms), analyzing the risks remains hazardous even when strong privacy-preserving techniques are used. The main goal of this PhD thesis is to design a formal method based approach allowing data holders to analyze the risks related to their synthetic data publication practices. The main tasks of the PhD student will be to: – Study the state-of-the-art about attacks on synthetic data generation algorithms (e.g., membership inference attacks [4, 6]) and about relevant formal methods (e.g., attack tree based risk analysis models [3]). We will focus on tabular data and time series. – Model the full synthetic data generation environment. Most especially, this includes capturing the attackers’ capabilities (e.g., goals [5], background knowledge, computational resources, sequences of steps), the relationships between attackers, the sources of auxiliary information, and the data sharing practices. – Design efficient algorithms for finding the attacks that illustrate privacy risks, implement them, and evaluate their performance. In addition to the core tasks of the project, the successful candidate will also contribute to the organisation of competitions where the privacy guarantees of synthetic data generation algorithms are challenged [1] (see, e.g., the Snake1 challenge (https://snake-challenge.github.io)). References [1] Tristan Allard, Louis Béziaud, and Sébastien Gambs. Snake challenge: Sanitization algorithms under attack. Proceedings of the 32nd ACM International Conference on Information and Knowledge Management (CIKM ’23), 2023. [2] Damien Desfontaines and Balázs Pejó. Sok: Differential privacies. Proceedings on Privacy Enhancing Technologies, 2020(2):288–313, 2020. [3] Barbara Kordy (Fila), Ludovic Piètre-Cambacédès, and Patrick Schweitzer. Dag-based attack and defense modeling: Don’t miss the forest for the attack trees. Comput. Sci. Rev., 13-14:1–38, 2014. [4] Hongsheng Hu, Zoran A. Salcic, Lichao Sun, Gillian Dobbie, P. Yu, and Xuyun Zhang. Membership inference attacks on machine learning: A survey. ACM Computing Surveys (CSUR), 54:1 – 37, 2021. [5] Ahmed Salem, Giovanni Cherubin, David Evans, Boris Köpf, Andrew Paverd, Anshuman Suri, Shruti Tople, and Santiago Zanella-Béguelin. Sok: Let the privacy games begin! a unified treatment of data inference privacy in machine learning. In Proceedings of the 2023 IEEE Symposium on Security and Privacy (S&P ’23), pages 327–345, 2023. [6] Antonin Voyez, Tristan Allard, Gildas Avoine, Pierre Cauchois, Élisa Fromont, and Matthieu Simonin. Membership inference attacks on aggregated time series with linear programming. In Proceedings of the 19th International Conference on Security and Cryptography (SECRYPT ’22), 2022. Profil du candidat : – The candidate must have obtained, or be about to obtain, a master degree in computer science or in a related field. – The candidate must be curious, autonomous, and rigorous. – The candidate must be able to communicate in English (oral and written). The knowledge of the French language is not required. – The candidate must have a strong interest in cybersecurity. – Skills in machine learning and/or formal methods will be appreciated. Formation et compétences requises : Adresse d’emploi : IRISA Rennes Campus de Beaulieu, 263 avenue du Général Leclerc 35042 RENNES cedex Document attaché : 202501201621_PhD_thesis_IRISA_France.pdf
|
Offres de stages
Feb 14 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : CReSTIC Durée : 4 à 6 mois Contact : eric.desjardin@univ-reims.fr Date limite de publication : 2025-02-14 Contexte : Le cholangiocarcinome intra-hépatique (iCCA) est une tumeur maligne primitive hépatique dont le diagnostic anatomopathologique peut être difficile. L’objectif du projet CholangIA est d’améliorer le diagnostic des lésions ductulaires intra-hépatiques réalisé à partir d’images histopathologiques par les approches de l’Intelligence Artificielle. Une étude bi-centrique a permis de tester les performances de classification binaire et multi-classe des modèles VGG16, MobileNetV2 et ResNet50 [1]. Un premier pipeline de détection a été développé [Figure 1]. Nous souhaitons explorer les mécanismes d’attention et Multiple instance learning [2] afin de pouvoir rendre plus robuste les classifications obtenues. Ce projet est mené dans le cadre d’une collaboration entre l’équipe AI4M (Artificial Intelligence for Medicine) du laboratoire CReSTIC, l’unité de recherche MEDyC et l’IIAS (Institut de l’IA en Santé) en partenariat avec l’Institut Mondor de Recherche Biomédicale. Sujet : Le candidat participera à l’enrichissement des travaux actuels en : – développant des méthodes explicatives et d’attention de apprentissage profond – implémentant une approche « Multiple instance learning » – réalisant les Évaluations & Intégration dans le pipeline d’analyse Profil du candidat : Compétences impératives : • Intelligence artificielle, machine learning, deep learning • Programmation Python • Librairies usuelles de deep learning (TensorFlow, Keras. . . ) • Analyse d’images Compétences souhaitées mais non-indispensables : • Imagerie histopathologique • Compétences en calcul intensif Formation et compétences requises : Le(la) candidat(e) sera en Master 2 ou en 3e année d’école d’ingénieur. Adresse d’emploi : Université de Reims Champagne-Ardenne, Laboratoire CReSTIC, Campus Moulin de la Housse, site de Reims Document attaché : 202411221451_Stage CholangIA 2024.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LS2N Durée : 6 mois Contact : francois.queyroi@univ-nantes.fr Date limite de publication : 2025-02-14 Contexte : Many studies have shown that learning models can lead to inequality of treatment and unfair decisions. A decision algorithm is often said to be “unfair” if it’s outcome depends (even indirectly) on some protected attribute (e.g. race, gender, etc.). In much of the literature, however, the protected attributes are mostly discrete, encoding the fact that an individual belongs (or does not) belong to one or more groups. A challenge in this context is to take into account the intersectionality of possible discriminations faced by individuals. Sujet : The aim of this project is to explore alternatives to the use of discrete variables to encode sensitive attributes. One possible way is to use a graph (the sensitive network ) to encode proximity/relationship between individuals. In this context, fairness could be defined as the lack of correlation between the existence of relationships and the decision/score. An intuitive example of an “unfair decision” is hiring only people who know the same people in the network. The objectives of this internship are to 1. Develop a state-of-the-art on alternative notions of algorithmic fairness in the context of intersectionality. 2. Reformulate well-known definitions of group fairness in the context of simple sensitive networks. 3. Find potential case studies and datasets in order to start a benchmark. 4. Implement measures of network fairness and evaluate them on the datasets. Profil du candidat : M2 mathematics/computer science student (or equivalent) with an inter- est and skills in data analysis, graph mining and fairness in machine learning. A background in the humanities (sociology, philosophy, etc.) is a big plus Formation et compétences requises : Adresse d’emploi : Polytech Nantes, Rue Christian Pauc, 44300 Nantes Document attaché : 202411251412_Sujet_Stage_GraphFairness_2025.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : CIRAD – UMR TETIS Durée : 6 mois Contact : roberto.interdonato@cirad.fr Date limite de publication : 2025-02-14 Contexte : L’initiative Land Matrix (https://landmatrix.org) et son observatoire mondial des acquisitions de terres à grande échelle ont pour objectifs de créer une source fiable de données permettant d’alimenter les débats et de mettre en oeuvre des actions éclairées sur les transactions foncières à grande échelle. La Land Matrix collecte des données sur les tentatives prévues, conclues et échouées visant à acquérir des terres au moyen d’achat, de location ou de concession à des fins de production agricole, extraction de bois, extraction minière, finance du carbone, activités industrielles, production d’énergie renouvelable, conservation de la nature et tourisme, dans les pays à revenus faibles ou intermédiaires. Bien que les données de la Land Matrix restent la référence mondiale sur les phénomènes d’acquisitions de terres dans le monde académique, la couverture des sites d’exploitation minière dans la base n’est toujours pas optimale, pour plusieurs raisons historiques et liées à des soucis d’accès aux données. D’autre part, le suivi des activités minières (et des investisseurs associés) sur ces sites est au coeur des études concernant la transition énergétique, qui est à son tour une dimension importante d’une stratégie globale de lutte contre le changement climatique. Ces études peuvent également contribuer à sensibiliser aux injustices distributives et à la répartition inéquitable des coûts, les pays cibles supportant la plupart des coûts sociaux et environnementaux de l’extraction des ressources dans des régions marquées par l’insécurité foncière et alimentaire et l’instabilité en termes de gouvernance. Sujet : L’objectif du stage est de construire une base de données la plus complète possible sur les sites d’exploitation minière dans le monde, en incluant les informations sur les investisseurs derrière ces sites et les informations géospatiales associées (coordonnées GPS et/ou polygones). Pour y parvenir, il faudra intégrer les données Land Matrix (https://landmatrix.org/) avec celles d’une autre plateforme, ResourceContracts (https://www.resourcecontracts.org/). ResourceContracts est un référentiel en ligne de contrats pétroliers, gaziers et miniers. Le site comprend la version PDF et le texte intégral de chaque contrat, des étiquettes des principaux termes financiers, sociaux, environnementaux, opérationnels et juridiques et des outils de recherche et de comparaison des contrats. Des techniques de Traitement Automatique du Langage (TAL), possiblement avec l’utilisation des modèles de type LLM (Large Language Models – Grand Modèle de Langage) seront nécessaires pour compléter cette tâche d’intégration. Finalement, la base obtenue sera mise en lien avec une autre base qui fournit l’étendue géographique des sites minières sous forme des polygones (i.e., shapefiles). Des méthodes de télédétection pourront être mobilisés à côté des techniques de TAL pour compléter cette deuxième étape. La base finale sera enfin utilisée pour mener deux cas d’études analytiques sur des pays spécifiques, qui sont des hotspots de l’extraction des ressources minière nécessaires à la transition énergétique : la République démocratique du Congo et l’Argentine. Profil du candidat : Compétences du candidat/e : ● Analyse des données (collecte, exploration, mise en lien) ● Programmation (préférablement Python) ● Capacités d’analyse, rédactionnelle et de synthèse ● Travail d’équipe ● Des expériences en TAL et/ou Télédétection seront considérées comme un plus. Informations complémentaires : Durée de 6 mois, à partir de février 2025. Le stage se déroulera au CIRAD, dans l’UMR TETIS (Territoire, Environnement, Télédétection et Information Spatiale), située dans les locaux de la Maison de la Télédétection à Montpellier. Le stagiaire sera encadré par Rémi Decoupes (INRAE, UMR TETIS), Roberto Interdonato et Simon Madec (CIRAD, UMR TETIS), Jérémy Bourgoin (CIRAD/ILC) et Marie Gradeler (ILC). Si des résultats significatifs sont obtenus, le stage peut conduire à une publication scientifique. Financement : Le stage est soutenu par le projet Land Matrix. La rémunération du stagiaire sera de l’ordre de 600 euros par mois. Modalité de candidature : Attention : cette proposition ne concerne que les stages d’étudiants sous convention avec une école ou une université : il ne s’agit pas d’une offre d’emploi. Envoyer une lettre de motivation d’une page, précisant en outre la durée et période possible du stage, un CV détaillé, et un relevé des notes à : remy.decoupes@inrae.fr et roberto.interdonato@cirad.fr , en précisant dans l’objet « CANDIDATURE STAGE LAND MATRIX 2025 ». Date limite pour l’envoi du dossier : 06 Decembre, 2024 Formation et compétences requises : Adresse d’emploi : Maison de la Télédétection, 500 rue Jean François Breton, 34000, Montpellier Document attaché : 202411221612_Stage2025.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : ISIR, Sorbonne Université Durée : 5-6 mois Contact : yvon@isir.upmc.fr Date limite de publication : 2025-02-14 Contexte : Sujet : Ce stage s’intéresse à l’étude de nouvelles interactions pour la révision (post-édition) de traductions automatiques, par exemple en intégrant des mesures de confiance sur la qualité de traduction. Profil du candidat : Formation et compétences requises : Adresse d’emploi : ISIR 4, Place Jussieu 75005 Paris Document attaché : 202411251257_sujet.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire d’Informatique et des Systèmes (LIS) Durée : 5 mois Contact : paul.chauchat@lis-lab.fr Date limite de publication : 2025-02-14 Contexte : Ce stage s’inscrit dans un projet de recherche visant à analyser les données issues de tests d’effort cardio-pulmonaire (CPET). Les CPET sont utilisés pour évaluer les réponses physiologiques d’un patient lors d’un exercice maximal, afin de déterminer le degré de limitation à l’effort et d’en identifier les mécanismes sous-jacents. L’objectif global de ce projet de recherche est de concevoir des outils d’analyse et d’aide à la décision qui enrichiront l’interprétation des données CPET, et fourniront des outils prédictifs utiles pour le phénotypage des patients et la prédiction des trajectoires de soin. Cette approche vise à combler le fossé entre recherche et pratique médicale. En effet, bien que de récents travaux ont montré que l’exploitation des données collectées permette, grâce à techniques d’Intelligence artificielle d’obtenir des informations sur les patients telles que le diagnostic des limitations à l’effort (Portella, et al., 2022), la prédiction du devenir médical du patient (Hearn, et al., 2018), ou bien la détection automatique des seuils ventilatoires (Zignoli, et al., 2019), la pratique médicale se base encore sur une analyse séquentielle univariée. Il est donc nécessaire de comparer ces différentes approches en termes de pouvoir prédictif. Ce projet est une collaboration entre les laboratoires LIS et C2VN, ainsi que l’AP-HM. Encadrement et Collaboration Le stage se déroulera au LIS (campus Saint Jérôme) sous la supervision de Paul Chauchat (Maître de conférences, LIS), et de Stéphane Delliaux (Maître de conférences HDR et Praticien hospitalier, C2VN), en collaboration étroite avec Luca Thiébaud, doctorant au LIS. Sujet : L’objectif de ce stage est de contribuer à l’exploitation des données issues des tests d’effort cardio-pulmonaire (CPET) à travers une approche de Network Physiology. Cette approche par les données examine les interactions entre différents réseaux physiologiques, tels que les systèmes cardiovasculaire, respiratoire et métabolique, pour mieux comprendre leur dynamique complexe (Bashan, Bartsch, Kantelhardt, Havlin, & Ivanov, 2012). La physiologie des réseaux a été jusqu’ici utilisée à des échelles petites (un organe), et sur des cohortes faibles mais dans un cadre contrôlé. Il s’agira donc d’étudier, dans ce stage, l’applicabilité de la méthode à une plus grande échelle, grâce à des données plus nombreuses, mais recueillies dans un cadre médical. Des données issues des tests d’effort de l’AP-HM, et éventuellement de bases open source, seront utilisées. Ces travaux visent à obtenir un meilleur diagnostic de l’état de santé des patients. Au regard de l’avancée de ce projet et des intérêts spécifiques du/de la candidat(e), ces pistes pourront être amenées à évoluer. Profil du candidat : Étudiant(e) en dernière année d’École d’Ingénieur ou en Master 2, spécialités IA, mathématiques appliquées, bio-statistiques ou informatique. Vous avez un solide bagage théorique accompagné d’une bonne expérience de programmation (Python). Vous êtes motivé(e) par les applications médicales et l’analyse de données temporelles multivariées. Une expérience en Machine Learning, traitement de données médicales ou analyse statistique est un atout. Formation et compétences requises : Adresse d’emploi : Campus de Saint-Jérôme, Aix-Marseille Université, 52 av de l’escadrille Normandie Niemen, 13013, Marseille, France Document attaché : 202411261503_offre_stage.pdf Feb 21 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIFAT et IRBI Durée : 6 mois Contact : chanson@univ-tours.fr Date limite de publication : 2025-02-21 Contexte : La méta-analyse est une tâche d’analyse de la littérature scientifique visant à collecter l’ensemble des études portant sur un même phénomène (p. ex. effet d’un herbicide sur le système nerveux d’un insecte), puis d’en extraire les éléments qualitatif et quantitatifs permettant la réalisation d’une étude statistique s’appuyant sur l’ensemble des résultats collectés. Cette tâche tout comme l’analyse systématique de la littérature repose sur la lecture et l’extraction d’information d’un grand nombre de textes scientifiques. Rendant ces tâches longues et complexes. L’émergence des modèles de langage massif (LLM) a participé à démocratiser l’usage de l’intelligence artificielle. Elle a permis à tout un chacun d’interagir et d’exploiter l’information textuelle via une interface en langue naturelle ne nécessitant aucune connaissance préalable. Néanmoins ces outils comportent des risques : quand ils sont confrontés à une question portant sur une connaissance précise, les LLMs tendent à ‘halluciner’ présentant comme réponse des informations complètement fausses [4]. Cette phénomène tend à disparaître avec les modèles désormais entraînés à répondre qu’ils ne disposent simplement pas d’une information plutôt que de l’inventer [5]. Une des techniques visant à pallier ce manque de ‘connaissance’ est d’extraire l’information d’un document source et de la fournir au LLM en plus de la requête originelle. Dans sa version la plus simple l’utilisateur lui-même peut identifier un texte source et le fournir au modèle de langue (e.g. [2]). Un process plus formel et complexe vise à construire un pipeline ou l’information pertinente de réponse à une question est automatiquement localisée et fournie au LLM. Ces méthodes dites de RAG (Retrival Augmented Generation) permettent une plus grande flexibilité et puisque le système détermine de façon autonome les parties de documents nécessaire pour compléter la requête de l’utilisateur il permet de puiser dans des milliers de documents sans intervention préalable de l’utilisateur. Sujet : Ce stage de recherche se propose d’explorer le potentiel des LLMs, notamment en combinaison avec des techniques de RAG, pour automatiser et améliorer certaines tâches liées à la méta-analyse. Nous nous baserons sur une méta-analyse coordonnée par Stéphane Boyer et portant sur le thème des échantillonnages ADN dits ‘non-invasifs’ pour l’étude des animaux [6]. Plus précisément, nous allons nous concentrer sur : L’extraction des données : une fois les études pertinentes identifiées, les LLMs peuvent être utilisés pour extraire les données nécessaires à la méta-analyse, en particulier 1) la méthodologie employée et la nature des échantillons ADN collectés, 2) le caractère invasif ou non des prélèvements réalisés, et 3) le cas échéant le type ‘d’erreur’ réalisé par les auteurs dans leur utilisation du terme ‘non-invasive DNA sampling’ [6]. La synthèse des résultats : les LLMs peuvent être utilisés pour générer des résumés synthétiques des résultats de la méta-analyse, en langage naturel, et pour identifier les tendances et les conclusions principales d’une étude. L’analyse des 380 articles scientifiques étudiés en 2022 (articles publiés entre 2013 et 2018) permettra de comparer les résultats obtenus par l’approche manuelle à ceux produits par les LLMs, et d’affiner le protocole afin d’obtenir les résultats les plus précis possible. La mise à jour de la méta-analyse sera ensuite réalisée en appliquant notre meilleur protocole LLM sur un nouveau lot d’articles, publiés entre 2019 et 2024. Cette mise à jour pourra être soumise pour publication dans un journal à comité de lecture. [1] Zhu, Y., Yuan, H., Wang, S., Liu, J., Liu, W., Deng, C., Dou, Z., & Wen, J. (2023). Large Language Models for Information Retrieval: A Survey. ArXiv, abs/2308.07107. [2] https://chatgpt.com/share/671fb24d-dec8-8012-9857-760539b1390f [3] Yun, H., Pogrebitskiy, D., Marshall, I.J., & Wallace, B.C. (2024). Automatically Extracting Numerical Results from Randomized Controlled Trials with Large Language Models. ArXiv, abs/2405.01686. https://arxiv.org/pdf/2405.01686 [4] Huang, L., Yu, W., Ma, W., Zhong, W., Feng, Z., Wang, H., Chen, Q., Peng, W., Feng, X., Qin, B., & Liu, T. (2023). A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions. ArXiv, abs/2311.05232. [5] Tonmoy, S.M., Zaman, S.M., Jain, V., Rani, A., Rawte, V., Chadha, A., & Das, A. (2024). A Comprehensive Survey of Hallucination Mitigation Techniques in Large Language Models. ArXiv, abs/2401.01313. [6] Lefort, M. C., Cruickshank, R. H., Descovich, K., Adams, N. J., Barun, A., Emami-Khoyi, A., … & Boyer, S. (2022). Blood, sweat and tears: a review of non-invasive DNA sampling. Peer Community Journal, 2, e16. https://peercommunityjournal.org/articles/10.24072/pcjournal.98/ Profil du candidat : Formation et compétences requises : Adresse d’emploi : Tours: Campus de Grandmont Document attaché : 202501160822_stage meta-analyse irbi_lifat (2).pdf Feb 25 Tue 2025 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire GREYC Université de Caen Durée : 6 mois Contact : abdelkader.ouali@unicaen.fr Date limite de publication : 2025-02-25 Contexte : Ce stage de master s’inscrit dans le cadre du projet FIDD (Facilitated Exploration :Interactive Constraint-Driven Data Mining) financé par l’ANR (Agence Nationale de laRecherche), projet qui démarrera en février 2025. L’objectif principal du projet FIDD est d’améliorer l’expérience de l’utilisateur dans la boucle interactive de fouille de données en exploitant les contraintes pour capturer ses intérêts et guider efficacementle processus de fouille de données. Ce projet regroupe 6 organismes de recherche nationaux : LISN [UMR 5506 – Université de Paris-Saclay], LIRMM [UMR 5506 – Université ofMontpellier], LS2N [IMT Atlantique Nantes], GREYC [UMR 6072 – Université de Caen],LIFO [EA 4022 – Université d’Orléans], CRIL [UMR 8188 – Université of Artois]. En collaboration avec l’entreprise PME Deeplink-Medical, une application phare est considéréeafin d’améliorer la prise en charge des patients par des médecins radiologues selon leursinteractions. Sujet : La fouille de motifs [1] consiste à extraire, à partir d’un ensemble de données, des régu-larités ou des modèles récurrents qui peuvent être utilisés pour générer des connaissancessignificatives. Cependant, afin de réduire la durée de la procédure et donner davantage de contrôle à l’utilisateur, la fin des années 2000/le début des années 2010 voyait le déve-loppement des méthodes defouille interactive[7] : à chaque itération, un petit ensemblede motifs est proposé à l’utilisateur, l’utilisateur examine ces résultats partiels, donne desretours que l’algorithme prend en compte pendant la ou les prochaines itérations. En rai-son du très grand nombre de motifs extraits, une telle approche a pourtant besoin destechniques d’échantillonnage en sortie de motifs comme celles été proposées en [4, 5, 6, 3]pour sélectionner un sous-ensemble représentatif de l’ensemble de motifs. Ces techniquespermettent de réduire la complexité en temps de calcul et de faciliter l’analyse tout en pré-servant l’essence des informations contenues dans les motifs de la base de données. Dansces techniques, le tirage de motifs est souvent réalisé proportionnellement à une mesure re-flétant un certain intérêt de l’utilisateur. Ainsi, le processus d’échantillonnage peut intégrerdes contraintes visant à influencer le tirage lui-même ou à cibler spécifiquement des motifsqui satisfont certaines propriétés définies. Plus précisément, ce problème d’échantillonnagese formule de la manière suivante [4, 2] : étant donné une base de données S, un langage demotifsL, un ensemble de contraintes C, et une mesure de qualité φ:L→R, tirer aléatoi-rement des motifs qui satisfont les contraintes de C avec une probabilité proportionnelle à leur qualité. Profil du candidat : Niveau master 2 (ou équivalent) en informatique (ou mathématiques appliquées) ayantun intérêt pour l’intelligence artificielle, la programmation par contraintes, et la fouille de données. Formation et compétences requises : Des compétences en programmation JAVA, Python et C++ ainsi qu’une bonne compréhension des algorithmes de fouille de données et de résolution de contraintes et SAT seront appréciées. La langue utilisée est le français ou l’anglais. Adresse d’emploi : Laboratoire GREYC, CNRS UMR 6072, Université de Caen, 14000, Caen. Avec des interactions régulières avec l’équipe Contraintes et Apprentissage au laboratoireLIFO, EA 4022 – Université d’Orléans. Document attaché : 202410241252_FIDD___Sujet_de_Stage_M2-1.pdf Feb 28 Fri 2025 Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : Pôle uiversitaire Léonard de Vinci, DVRC, La défen Durée : 6 mois Contact : n.mellouli@iut.univ-paris8.fr Date limite de publication : 2025-02-28 Contexte : Les données textuelles envahissent nos quotidiens personnels et professionnels. La recherche de documents pertinents répondant à des besoins métier devient une tâche très fastidieuse et nécessite un investissement en termes d’effort humain à annoter ces documents pour pouvoir les exploiter correctement. L’annotation sémantique de documents multimodaux est un sujet de recherche brûlant que nous proposons d’attaquer selon l’angle des résumés extractifs. Nous supposons qu’une annotation ou une étiquette n’est pas suffisante pour indexer sémantiquement un document. En revanche, un résumé peut représenter collectivement les informations les plus importantes ou les plus pertinentes du contenu d’origine. Par conséquent, toute opération qui émane de l’exploration des documents d’origines telles que la classification, la recherche, la segmentation, ou encore la catégorisation des documents peut être effectuée sur la base du résumé dès lors que ce dernier soit fidèle à l’information d’origine. Ce niveau de fidélité peut être évalué par le biais de différentes métriques qui seront sélectionnées d’une manière automatique en fonction de la tâche. Sujet : L’évaluation des systèmes de traitement automatique de la langue a toujours été un défi majeur pour les chercheurs. En effet ces tâches reposant sur des compétences abstraites de haut niveau, avant d’être difficile à réaliser elles sont tout simplement difficile à évaluer. Par exemple, afin d’évaluer un simple système de résumé automatique de texte, il est nécessaire de demander à des experts de créer des résumés à la main. Cependant, contrairement à une tâche d’annotation d’images certes fastidieuse mais simple, dans le cas du résumé, l’expert doit comprendre finement les documents sources afin d’en générer une synthèse fidèle. Une fois ces résumés de référence obtenus, il est nécessaire de développer une méthodologie afin de pouvoir évaluer la qualité des résumés générés automatiquement. La métrique la plus utilisée ROUGE2(Lin, 2004) va simplement compter le nombre de bi-grammes commun entre le résumé de référence et le résumé automatique. Plus un résumé aura de bigrammes communs avec le résumé de référence plus le système sera considéré comme performant. Avec l’essor de l’apprentissage profond, ces métriques ont été améliorées par exemple avec le BERTScore(Zhang & Al, 2020) qui permet de comparer les phrases au niveau vectoriel et ainsi identifier des phrases sémantiquement proches même si elles diffèrent complètement syntaxiquement (par l’usage de synonyme par exemple). Certaines méthodes vont encore plus loin en faisant complètement abstraction de toute annotation de référence. C’est le cas de la métrique BARTScore (Weizhe & Al, 2021). Celles-ci ont été testées dans différentes applications et pour différentes tâches. Dans ce travail, nous visons leur exploitation pour une tâche d’extraction de résumés à partir de documents thématiques. Deux contextes applicatifs seront étudiés dans le cadre de ce stage. Ce travail portera sur le tourisme et s’intéresse particulièrement à l’analyse des sentiments des visiteurs basés sur les données collectées à partir de hotel.com, TripAdvisor, Booking, etc. Les hypothèses suivantes que nous souhaitons explorer dans ce stage sont comme suit : 1) Ces métriques permettent de construire des résumés extractifs synthétiques pertinents et porteurs de sens. Cependant le cadre méthodologique de ces métriques ne permet pas d’expliquer le processus d’extraction. Or si nous cherchons à annoter sémantiquement les documents via les résumés, il est nécessaire de tracer la pertinence des mots/ phrases. 2) Via les métriques, la quantification de l’hallucination des LLM sera étudiée. 3) Ces métriques indépendantes de toute annotation peuvent être adaptées au cas de résumés génératifs de documents textuels et amorcer une boucle automatique d’amélioration de ces modèles. 4) Ces métriques peuvent être étendues aux cas de résumés génératifs textuels d’images en se basant sur les prompts et sur les commentaires associés aux images. En perspective, ce travail pourra être envisagé pour l’étendre au résumé d’images en s’inspirant de ces mêmes métriques Profil du candidat : Master 2 Recherche en IA-NLP, Formation et compétences requises : Les compétences attendues : Le stagiaire sera en mesure de comprendre l’état de l’art récent sur les métriques d’évaluation et l’apprentissage frugal. De proposer une implémentation modulaire de ces métriques et de les tester sur des jeux de données de benchmark pour se comparer mais également de construire un jeu de données images et textes pour tester les limites de nos hypothèses. Adresse d’emploi : Campus Cyber, 5-7, Rue Bellini, 92800 Puteaux Document attaché : 202412181042_SujetStagede5A_2024_2025_DVRC.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire LASTIG Durée : 5 mois Contact : sami.guembour@ign.fr Date limite de publication : 2025-02-28 Contexte : Contexte ******* En janvier 2019, comme une des réponses à apporter au mouvement des Gilets Jaunes, le gouvernement a mis en place la consultation du Grand Débat national (GDN) qui propose aux contributeurs et contributrices à la fois une plate-forme numérique dématérialisée et non localisée, et des supports matériels localisés dans des lieux publics : les “Cahiers citoyens”. Chaque contribution a été directement écrite ou bien collée sur le support papier par un contributeur ou une contributrice. D’autres contributions sont arrivées en mairie sous forme de courriel ou bien de lettre ; celles-ci ont été imprimées (par la mairie collectante) et collée sur le cahier mis à disposition du public. Concernant son agencement et son positionnement sur la ou les pages, la contribution peut prendre la forme d’une lettre, ou une liste à puces, ou une suite de paragraphes. Au total 20 152 Cahiers ont été collectés. Ils ont ensuite été numérisés sous forme de fichiers image, transcrits automatiquement par océrisation, et partiellement vérifiés par des opérateur.rice.s humain.e.s. L’ensemble des contributions constitue le corpus des “Cahiers citoyens” (corpus CC). Sujet : Sujet **** Des analyses précédentes portant sur le corpus CC ont permis d’évaluer partiellement la qualité de la transcription. Trois types d’erreur ont été détectés et prennent la forme de : – mots illisibles : lorsque le mot océrisé n’est pas reconnu par l’opérateur humain, la mention manuelle “ILLISIBLE” est substituée à la séquence de lettres ou au mot incriminés. Des analyses exploratoires ont été menées pour quantifier le phénomène ; une méthode de correction a été explorée, fondée sur le fine-tuning du modèle de langue CamemBERT pour la tâche de prédiction des mots masqués “Mask Language Modelling” [3]; – mots inconnus : les mots inconnus sont ceux qui ne sont pas reconnus lorsque le corpus est soumis à une analyse lexicale à l’aide d’outils utilisant des dictionnaires électroniques ; il s’agit majoritairement d’erreurs d’océrisation ayant transformé un mot initialement valide, ou de coquilles du contributeur.rice, plus rarement de néologismes ; – mots échangés : un mot reconnu par les dictionnaires, mais erroné en contexte, est produit par l’outil d’océrisation sans être repéré ni corrigé à l’étape de vérification manuelle, par exemple miches et riches transcrits à la place de niches dans l’expression niches fiscales. L’objectif du stage consiste à proposer une identification et si possible une correction du corpus au travers des trois types d’erreurs relevés. Selon l’analyse exploratoire, la correction des mots inconnus peut être identique à celle des mots illisibles. Il s’agit donc d’implémenter la méthode explorée pour la correction des mots illisibles, et de l’évaluer pour les mots illisibles et les mots inconnus. Dans un deuxième temps, il s’agira de proposer et implémenter une méthode d’identification et de correction des mots échangés. Le stage comportera les étapes suivantes (une attention particulière sera portée aux conditions de ré-utilisabilité des ressources et codes produits, et donc à leur documentation tout au long du stage) : – appropriation des travaux déjà réalisés sur l’analyse des corpus plate-forme GDN et CC dont [4, 1, 2] ; – concernant les mots illisibles et les mots inconnus : * appropriation de la méthode explorée pour l’identification et la correction des mots illisibles ; * amélioration de cette méthode : l’objectif consistera à adapter la méthode existante afin de prédire les mots illisibles, cette fois-ci vus comme des données manquantes ; * adaptation de cette méthode pour la correction des mots inconnus, implémentation et évaluation ; – concernant les mots échangés : la réflexion sur une méthode d’identification a été amorcée, fondée sur la comparaison de n-grammes entre les deux corpus comparables issus de la consultation du “Grand Débat national” : le corpus CC (obtenus à partir des “Cahiers citoyens”) et les contributions de la plate-forme (qui n’ont pas eu à être océrisées puisqu’elles étaient collectées sous une forme numérique) ; elle devra être menée à bien jusqu’à une implémentation. Profil du candidat : Ce stage s’adresse aux étudiant.e.s de master 2 en informatique/science des données ou en traitement automatique des langues (TAL) avec une formation suffisante pour l’utilisation autonome d’un langage de programmation (de préférence Python et R) et d’outils de TAL (outils fondés sur l’apprentissage, modèles de langue, encodage de mots, de phrases ; classifieurs ; outils statistiques de lexicométrie). Formation et compétences requises : Encadrement du stage ****************** Catherine Dominguès, chercheure HDR, catherine.domingues@ign.fr Sami Guembour, doctorant, sami.guembour@ign.fr Alexandre Hippert-Ferrer, enseignant-chercheur, alexandre.hippert-ferrer@ensg.eu Pour candidater ************* Des entretiens seront organisés à partir de novembre 2024. Préalablement, un dossier de candidature est à envoyer aux encadrant.e.s et devra contenir les documents suivants : CV, derniers relevés de notes (M1, et premier semestre de M2 si possible), description des enseignements suivis (un lien vers le site internet de la formation est le bienvenu), dernier mémoire ou rapport de stage, lettre de motivation. L’accès au corpus des “Cahiers citoyens” étant soumis à autorisation des Archives nationales, il est souhaitable que la candidature soit validée le plus tôt possible. Adresse d’emploi : Laboratoire LASTIG à Champs-sur-Marne, 6-8 avenue Blaise Pascal (site de l’ENSG-Géomatique). Accès : RER A – Noisy-Champs Document attaché : 202411220935_stage2025_CC_diagnosticCorrectionCorpus.pdf Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : LAAS-CNRS Durée : 6 mois Contact : nawal.guermouche@laas.fr Date limite de publication : 2025-02-28 Contexte : Sujet : Ce stage se focalise sur la gestion des conflits induits par les services IoT qui soit sensible au contexte de l’environnement d’exécution. En effet, définir une priorité absolue, par exemple à un certain groupe d’objets, est très restrictif. L’objectif est de proposer une approche dynamique de détection et de résolution des conflits flexible qui tienne compte de différents paramètres tel que l’environnement des objets et les caractéristiques des services clients. Nous nous intéressons particulièrement à l’exploitation des techniques d’apprentissage automatique dans la détection et la résolution des conflits. Les étapes du stage sont comme suit : • Faire un état de l’art sur la détection et la résolution des conflits dans les systèmes IoT et des outils de simulation existants • Exploration et application sur des scénarios des modèles d’apprentissage automatique et les mécanismes d’attention pour la détection des conflits des services IoT • Implémentation d’un outil de simulation et de résolution de conflits IoT Profil du candidat : Formation et compétences requises : Adresse d’emploi : LAAS-CNRS, Toulouse Document attaché : 202411220827_Sujet-Stage-IA-Conflit.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire IBISC, Université d’Evry Paris-Saclay Durée : 6 mois Contact : Khalifa.Djemal@ibisc.univ-evry.fr Date limite de publication : 2025-02-28 Contexte : Sujet : La détection de signes des pathologies d’Alzheimer qui est une maladie neurodégénérative est une tâche très importante dans un système d’aide au diagnostic médical. En effet, les techniques d’apprentissage automatique offrent aujourd’hui des perspectives pour détecter et identifier des troubles liés à la maladie, évaluer son avancement et à terme pouvoir rééduquer le patient. Dans un premier temps, le candidat fera une étude de l’état de l’art sur les troubles cognitives de la maladie et sur les techniques récentes employées pour reconnaitre la sévérité des patients. Il procèdera ensuite à la mise en place d’un modèle d’apprentissage à partir de bases de données qui permettra l’analyse de ces troubles cognitives conduisant ainsi à la classification et l’identification de la sévérité de la maladie. [1] Hyun-Soo Choi, Jin Yeong Choe, HanjooKim, Ji Won Han, Yeon Kyung Chi, KayoungKim, Jongwoo Hong, Taehyun Kim, Tae Hui Kim, Sungroh Yoon and Ki Woong Kim. Deep learning based low-cost high-accuracy diagnostic framework for dementia using comprehensive neuropsychological assessment profiles, BMC Geriatrics, 18:234 (2018). [2] Valeria Manera, Pierre-David Petit, Alexandre Derreumaux, Ivan Orvieto, Matteo Romagnoli, Graham Lyttle, Renaud David, and Philippe H. Robert, ’Kitchen and cooking’, a serious game for mild cognitive impairment and Alzheimer’s disease: a pilot study, Frontiers in Aging Neuroscience, 7: 24, 2015. [3] Boaz Levy1, Samuel Gable, Elena Tsoy, Nurit Haspel, Brianna Wadler, Rand Wilcox, Courtney Hess, Jacqueline Hogan, Daniel Driscoll and Ardeshir Hashmi. Machine Learning Detection of Cognitive Impairment in Primary Care, Alzheimers Dis Dement, 1(2):38-46, 2017. [4] Werner P, Rabinowitz S., Klinger E., Korczyn A. D., Josman N., Use of the virtual action planning supermarket for the diagnosis of mild cognitive impairment: a preliminary study, Dement Geriatr Cogn Disord, 27(4):301-9, 2009. [5] Déborah A. Foloppe, Paul Richard, Takehiko Yamaguchi, Frédérique Etcharry-Bouyx & Philippe Allain, The potential of virtual reality-based training to enhance the functional autonomy of Alzheimer’s disease patients in cooking activities: A single case study, Neuropsychological Rehabilitation, October 2015. [6] Khalifa Djemal and Hichem Maaref, Intelligent Information Description and Recognition in Biomedical Image Databases, In:Computational Modeling and Simulation of Intellect: Current State and Future Perspectives, Book Edited by Boris Igelnik, pages: 52-80, Publisher IGI Global, ISBN: 978-1-60960-551-3, February 2011. [7] Florian Maronnat, Margaux Seguin, Khalifa Djemal, Cognitive tasks modelization and description in VR environment for Alzheimer’s disease state identification, in International conference on Image Processing Theory, Tools and Applications (IPTA 2020), November 09-12, 2020, Paris, France. Profil du candidat : Master 2 ou équivalent, de préférence des spécialités suivantes : – Apprentissage automatique (Machine Learning), – Imagerie Biomédicale – Informatique Biomédicale, – Informatique, Réalité Virtuelle et Systèmes Intelligents Formation et compétences requises : – Programmation Python, Matlab, – Machine Learning – Des connaissances de base en traitement d’images Adresse d’emploi : Laboratoire Informatique, Biologie Intégrative et Systèmes Complexes – IBISC 40 rue du Pelvoux, 91020 Evry, France Document attaché : 202411151746_Sujet-stage-Master2-Djemal-2024-2025.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : CIRAD – UMR TETIS Durée : 6 mois Contact : roberto.interdonato@cirad.fr Date limite de publication : 2025-02-28 Contexte : Sujet : Bonjour à tous, Nous avons le plaisir de vous annoncer une offre de stage de 6 mois au laboratoire TETIS à Montpellier, axée sur le problème d’inférence de réseaux à partir des données hétérogènes epidémiologiques en utilisant des méthodes de Graph Neural Networks. La date de début est prévue pour février 2025 (flexible). Vous trouverez la description détaillée de l’offre en français et en anglais ici : https://nubes.teledetection.fr/s/mTiDsdxCPHbNid3 Pour toute question, n’hésitez pas à contacter Nejat Arınık (nejat.arinik@univ-artois.fr) ou moi-même (roberto.interdonato@cirad.fr). Pour candidater, merci d’envoyer un mail à nejat.arinik@univ-artois.fr et roberto.interdonato@cirad.fr avec sujet “CANDIDATURE STAGE MOOD 2025” en ajoutant les éléments suivants: – lettre de motivation expliquant vos qualifications, expériences et motivation pour ce sujet (1-2 pages) — curriculum vitae (1-2 pages) — relevé de notes de 1ère année de master et les notes de 2ème année de master disponibles ou équivalent pour les écoles d’ingénieurs — un lien vers des dépôts de projets personnels (par exemple GitHub ou GitLab) — toute autre information que vous estimerez utile N’hésitez pas à transmettre ces offres à des étudiants qui pourraient être intéressés. Cordialement, Roberto et Nejat Roberto and Nejat Profil du candidat : Formation et compétences requises : Adresse d’emploi : 500 rue Jean Francois Breton, Montpellier Document attaché : 202411151304_Stage – Inférence de Réseaux à Partir des Données Hétérogènes.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : DVRC@ESILV Durée : 6 mois Contact : nicolas.travers@devinci.fr Date limite de publication : 2025-02-28 Contexte : The development of NoSQL solutions on the Cloud is a complex task, and mastering all aspects of optimization is challenging. At the DVRC (the ESILV laboratory), we have developed an approach to help developers measure the impact of their solutions under different dimensions: time, financial, and environmental. Sujet : In the context of this research project, we aim to study the impact of data model transformations on environmental costs in the Cloud. A cost model was previously developed in the team, and we intend to use it to better understand the impact of these transformations and create a recommendation system to minimize the carbon footprint of a NoSQL solution. The first objective of this project will be to familiarize oneself with the cost model and apply it to various benchmarks. The results will be analyzed to study correlations between data models, queries, and data evolution. In the second phase, these results will be used to design a recommendation system to propose data model generation with a low carbon footprint while respecting other dimensions (financial and time costs). A potential evolution of the subject could involve studying schema evolution as the database state changes, especially in the context of polystores. This internship includes: – Study of a cost model specialized in carbon footprint measurement – Behavioral analysis of NoSQL databases – Development of an environmental recommendation model Profil du candidat : M2 level students (Master or Engineering Schools). Formation et compétences requises : Distributed DB, Cost Model, Data Modeling, Carbon footprint measuring, MongoDB Adresse d’emploi : DVRC at ESILV at (École Supérieure d’Ingénieurs Léonard de Vinci ; Paris, la Défense). Document attaché : 202411221058_2425_MALI_NoSQL_Mali-Travers.pdf Offre en lien avec l’Action/le Réseau : – — –/Doctorants Laboratoire/Entreprise : LAAS-CNRS Durée : 6 mois Contact : nawal.guermouche@laas.fr Date limite de publication : 2025-02-28 Contexte : Sujet : La montée en puissance de l’intelligence artificielle (IA) permettrait d’offrir des services facilitant l’usage des voitures aux personnes TSA, notamment des véhicules connectés. Un véhicule connecté est doté de capteurs et objets connectés embarqués, permettant d’une part, de collecter des données en temps réel, et d’autre part, d’offrir des services capables d’interagir avec l’environnement (feux rouges, d’autres véhicules connectés. etc.) ainsi qu’avec l’écosystème plus large de la ville intelligente. Dans le cadre de ce stage et en collaboration avec le Centre d’Études et de Recherches en Psychopathologie et Santé (CERPPS), Université Jean Jaures, nous visons à développer des modèles, des algorithmes, et des outils pour la mise en place d’un système autonome et intelligent dédié à l’accompagnement des personnes TSA dans leur mobilité. En s’appuyant sur l’IoT et l’IA, notamment via les réseaux de neurones profonds couplés aux mécanismes d’attention, ce système devra être capable d’identifier, de caractériser, et de quantifier de manière active et prédictive l’impact des événements routiers sur le conducteur. Cela doit permettre de mettre en place des solutions capables d’anticiper les potentiels impacts sur la cognition et les émotions du conducteur et ainsi l’aider à mener une conduite la plus sereine possible. Pour atteindre les objectifs de ce stage, les principales étapes sont : – État de l’art : une revue de littérature sur l’IoT, la mobilité intelligente, l’IA, et les troubles TSA dans le cadre la mobilité routière sera réalisée. – Étude et analyse des dataset déjà constitués en vue de leur exploitation et enrichissement via la mise en place de nouveaux scénarios en utilisant le simulateur SimulAuto . – Proposition d’une approche pour l’identification, la quantification, et la visualisation de l’impact des évènements routiers sur l’état cognitif et émotionnel des personnes TSA. – Implémentation et évaluation de la solution proposée. Profil du candidat : Formation et compétences requises : Adresse d’emploi : LAAS-CNRS, Toulouse, France Document attaché : 202411220830_Sujet-Stage-Mobilité-Inclusive.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIRIS Durée : 6 mois Contact : stefan.duffner@insa-lyon.fr Date limite de publication : 2025-02-28 Contexte : Sujet : The first objective of this internship is to study and improve multi-modal Machine Learning models, for the fusion of video and EEG but potentially also EKG data, to predict the situations of our healthy control group. Based on our pre-liminary work on multi-modal LSTM and Transformer models, the aim would be to find characteristic patterns and correlations in the data that represent the different emotional or interactive situations, using eXplainable AI (XAI) techniques such as Integrated Gradient or SHAP. The second objective would be to adapt these models and methods to DOC patients. Profil du candidat : Formation et compétences requises : Adresse d’emploi : INSA Lyon – LIRIS 7 Avenue Jean Capelle 69621 Villeurbanne Document attaché : 202411111700_sujet_stage_M2_agoracoma_fusion1.pdf Offre en lien avec l’Action/le Réseau : DOING/– — – Laboratoire/Entreprise : DVRC@ESILV Durée : 6 mois Contact : nicolas.travers@devinci.fr Date limite de publication : 2025-02-28 Contexte : Understanding the appreciation of visits made by tourists is a major issue in the tourism sector to anticipate trend evolutions as well as how they move across the territory. One approach to estimating this appreciation is based on the extraction of frequent patterns on a circulation graph, such as Graphlet extraction [1], k-decomposition [2], or cohesive structures like k-plexes [6]. Thus, tourism trends are extracted using their frequency of occurrence in a topological manner. However, tourism data from experience-recommending platforms such as TripAdvisor or Google Maps results in large data graphs that become challenging to process with traditional data mining techniques. With a large number of places visited (millions) and an enormous number of user comments (billions), it is necessary to develop a new approach for scaling graph-based algorithms. Sujet : To this end, within the STARCS axis of DVRC, we have developed an exhaustive and scalable pattern extraction approach on a graph using Pregel [3]. This approach allows us to extract both the pattern topology and node properties, including geodesic information [4, 5, 7]. The extraction has been extended to complex patterns giving interesting perspectives of enhancement. We now wish to take this approach a step further by focusing on optimizing the mining process. The internship has two main goals: • Use a topological signature technique to mine patterns in a Neo4j database (in Pregel/Java). • Improve the method to provide a heuristic adapted to the geodesic context. Example of aggregated tourist propagation graph across the French territory: • How can we identify significant propagation patterns? • What are the characteristics of a pattern? • Can we extract seasonality from different groups of patterns? Profil du candidat : M2 level students (Master or Engineering Schools). Formation et compétences requises : Databases, Data Mining, graph DB (Neo4j, Cypher), Java, parallelism. Adresse d’emploi : De Vinci Research Center at ESILV at (École Supérieure d’Ingénieurs Léonard de Vinci ; Paris, la Défense). Document attaché : 202411221055_2425_TRAVERS_GraphMining.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire Interdisciplinaire des Sciences du Num Durée : 5 ou 6 mois Contact : guinaudeau@limsi.fr Date limite de publication : 2025-02-28 Contexte : Most human interactions occur through spoken conversations. If this interaction mode seems so natural and easy for humans, it remains a challenge for spoken language processing models as conversational speech raises critical issues. First, non-verbal information can be essential to understand a message. For example a smiling face and a joyful voice can help detecting irony or humor in a message. Second, visual grounding between participants is often needed during a conversation to integrate posture and body gesture as well as references to the surrounding world. For example, a speaker can talk about an object on a table and refer to it as this object by designing it with her hand. Finally, semantic grounding between participants of a conversation to establish mutual knowledge is essential for communicating with each other. Sujet : In this context, the MINERAL project aims to train a multimodal conversation representation model for communicative acts and to study communicative structures of audiovisual conversation. As part of this project, we are offering a 5- to 6-month internship focused on semi-automatic annotation of conversations in audio-visual documents. The intern’s first task will be to extend the existing annotation ontology for dialog acts, currently available for audio documents (through the Switchboard corpus for example), to incorporate the visual modality. In a second step, the intern will develop an automatic process for transferring annotations to new audiovisual datasets (such as meeting videos and TV series or movies) using transfer or few-shot learning approaches. Practicalities: The internship will be funded ~500 euros per month for a duration of 5 or 6 months and will take place at LISN within the LIPS team. This internship can potentially be followed by a funded PhD, based on performance and interest in continuing research in this area. To apply, please send your CV, a cover letter and your M1 and M2 transcripts (if available) by email to Camille Guinaudeau camille.guinaudeau@universite-paris-saclay.fr and Sahar Ghannay sahar.ghannay@universite-paris-saclay.fr Profil du candidat : Formation et compétences requises : Required Qualifications: ● Master’s degree (M2) in Computer Science or related field. ● Experience with deep learning frameworks such as Keras or PyTorch. ● Knowledge of image processing would be an advantage. Adresse d’emploi : LISN – Équipe LIPS Campus Universitaire bâtiment 507 Rue du Belvédère 91400 Orsay Document attaché : 202411111659_Stage_MINERAL.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Equipe ORKAD / Laboratoire CRIStAL Lille Durée : 6 mois Contact : julie.jacques@univ-lille.fr Date limite de publication : 2025-02-28 Contexte : ORKAD est une équipe de recherche du groupe thématique OPTIMA du laboratoire CRIStAL (Centre de Recherche en Informatique, Signal et Automatique de Lille) (UMR CNRS 9189) de l’Université de Lille. L’objectif principal de l’équipe ORKAD est d’exploiter simultanément l’optimisation combinatoire et l’extraction de connaissances pour résoudre des problèmes d’optimisation. Les métaheuristiques ont souvent été utilisées avec succès pour résoudre différentes tâches de machine learning [DhaenensJourdan2022]. En particulier, l’algorithme MOCA-I [Jacques2013-a], permet de classifier des données hétérogènes et mal réparties par méthode d’optimisation, sur des données médicales [Jacques2020]. L’équipe ORKAD a des partenariats avec le CHU de Lille ; notamment dans le cadre du projet européen PATHACOV pour la détection du cancer du poumon à partir de la concentration en composés organiques volatils dans l’air expiré [Hulo2023]. Dans ce stage, nous nous intéressons à l’extension de ces travaux aux données du projet ALCOVE, suite du projet PATHACOV, où l’objectif est de distinguer différentes classes de sujets: sain / malade (avec le stade : I, II, III, IV) ; opérable / non opérable. Sujet : Dans le problème de classification multi-label, un enregistrement du jeu de données peut être associé à plusieurs labels : par exemple « cancer du poumon » et « opérable ». Des approches à base de métaheuristiques ont été proposées par le passé pour gérer ce problème, comme par exemple les colonies de fourmis [Otero2010]. La classification multi-label est souvent associée à une répartition déséquilibrée des différents labels à prédire [Tarekegn2021] et une des spécificités de l’algorithme MOCA-I est justement sa capacité à gérer ce déséquilibre [Jacques2013-a]. Dans MOCA-I, la modélisation est adaptée pour la classification binaire partielle (représentation de la solution, opérateurs d’initialisation et de voisinage,…). L’objectif de ce stage est de proposer une nouvelle représentation et opérateurs adaptés au problème de classification multi-label. Des méthodes de configuration automatique d’algorithmes comme irace [López-Ibáñez2016] seront utilisées pour identifier si les nouveaux opérateurs et stratégies proposés sont efficaces sur les benchmarks sélectionnés. Profil du candidat : Programmation Objet (Python ou C++) ; Connaissances en machine learning Des connaissances en C++ et recherche opérationnelle, optimisation combinatoire seraient un plus. Formation et compétences requises : M2 en informatique Adresse d’emploi : Lieu : Laboratoire CRISTAL, Equipe ORKAD (Université de Lille, France) Document attaché : 202411141558_Sujet_stage_M2.pdf Mar 1 Sat 2025 Offre en lien avec l’Action/le Réseau : BigData4Astro/– — – Laboratoire/Entreprise : Centre Astrophysique de Lyon Durée : 5 months Contact : eric.thiebaut@univ-lyon1.fr Date limite de publication : 2025-03-01 Contexte : Sujet : Internship supervisors: Eric Thiébaut, Michel Tallon @ : eric.thiebaut@univ-lyon1.fr, mtallon@obs.univ-lyon1.fr Address/Workplace: CRAL – site Charles André : 9 avenue C. André, St Genis Laval Hosting research team: AIRI Internship title: Adaptive optics control and learning Summary of proposed work: Context: Adaptive optics (AO) systems are used by most if not all current large telescopes to counteract the effects of the turbulence on the image quality and achieve diffraction limited angular resolution (i.e. λ/D). AO systems work by sensing the wavefront after its correction by a deformable mirror whose shape is controlled considering the departure of the measured wavefront to the ideal one (e.g. a flat wavefront). The AiRi team at CRAL is leading a project, UPCAO (funded by the French ANR), targeted at developing better algorithms and methods to control in real time (i.e. faster than 1,000 times per second) the shape of the wavefront given measurements by a wavefront sensor (WFS). The objective is to provide optimal wavefront correction under varying observing conditions for the THEMIS AO system, for SAXO+, and for future AO systems on ELTs. There are several ideas to improve current AO control systems: (i) improve the model of the AO system, (ii) account for the variable and uneven quality of the WFS measurements notably the fact that not all measures are always valid, and (iii) account for the spatio-temporal statistics of the turbulence to anticipate its evolution and reduce the effects of the delay between the times of measurements and of the correction by the mirror. Research directions: Modeling the AO system: To compute the wavefront correction, AO real time controllers assume a model of the behavior of the components of the AO system notably the wavefront sensor (WFS) and the deformable mirror (DM). Intuitively, the closer the model to reality the better the correction. The behavior of the instrument may be complicated (non-linear) and depends on the operating conditions. It is thus important to develop flexible models whose parameters can be calibrated and updated while the AO system is running (in closed-loop). We are currently considering affine approximations of the possibly non-linear behavior of the system that can be calibrated in real-time by a perturbative method. Another possibility to investigate is to exploit deep learning to automatically build the structure of a general non-linear model and to learn its parameters in real-time. Wavefront reconstruction: For a linear wavefront sensor (WFS), the reconstruction of the wavefront shape given the measurements and accounting for their uneven quality amounts to solving an inverse problem which has a closed-form solution. For large systems, this solution may be computed in real-time by means of accelerated iterative methods [1]. For new non-linear WFS, fast reconstruction methods compatible with the constraints of real-time have to be developed and AI based methods are emerging as competitive candidates. Modeling and learning the spatio-temporal behavior of the turbulence: Prediction of the temporal evolution of the wavefront is the key to compensate for the delay between the acquisition of wavefront sensor (WFS) measurements and the time at which the shape of the deformable mirror (DM) can effectively account for these measurements. We are developing a fast approximation of the covariance [2] that can be exploited to learn and apply the spatio-temporal statistics of the wavefront. Another possibility is to develop AI based methods. [1] Béchet+, “Comparison of minimum-norm maximum likelihood and maximum a posteriori wavefront reconstructions for large adaptive optics systems’’ in J. Opt. Soc. Am. A, 26, 497-508 (2009) https://doi.org/10.1364/JOSAA.26.000497 [2] Thiébaut+, “Beyond FRiM, ASAP: a family of sparse approximation for covariance matrices and preconditioners.” Adaptive Optics Systems VIII. Vol. 12185. SPIE, 2022, https://arxiv.org/pdf/2311.17721 Nature of the financial support for the internship: Labex LIO or team funding Potential for a follow-up as a PhD thesis: Yes Profil du candidat : Background in signal processing, numerical methods or related fields. Formation et compétences requises : Adresse d’emploi : Centre de Recherche Astrophysique de Lyon 9 avenue Charles André 69230 Saint-Genis-Laval Document attaché : 202411181118_FicheStage_CRAL_2024_AIRI_Thiebaut.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : CIRAD Montpellier Durée : 6 mois Contact : romain.fernandez@cirad.fr Date limite de publication : 2025-03-01 Contexte : Le projet DeepAeroDynamics (DADY) vise à combiner l’imagerie drone multispectrale time-lapse et le deep learning pour faire face aux défis du changement climatique et de la sécurité alimentaire dans les pays du Sud. L’objectif est de développer un modèle fondation capable d’intégrer les données multispectrales, spatiales et temporelles observées par drone aérien dans des environnements complexes et hétérogènes du Sud dans le but d’anticiper et prédire le comportement de plantes cultivées en agroécologie (Sahel, Madagascar, Guadeloupe). Sujet : Le stagiaire sera au coeur du développement d’une architecture deep learning permettant : ● D’analyser des séries temporelles multispectrales d’imagerie drone, et extraire automatiquement des représentations informatives de l’état des systèmes observés. ●D’analyser les dynamiques temporelles en utilisant des modèles de type Transformers pour capturer les évolutions des cultures décrites dans un espace latent. ●De maximiser l’utilisation des données par des techniques d’apprentissage semi-supervisées et des consignes prétextes pour maximiser la capacité d’apprentissage de l’architecture fondation. Le développement des modèles s’appuiera sur des architectures CNN et Transformers. L’approche sera validée sur des jeux de données déjà acquis et stockés à proximité d’un supercalculateur. Les tests de niveau 1 s’effectueront sur une ferme GPU locale, et les modèles de niveau 2 seront testés sur les supercalculateurs Jean Zay et Adastra (20e mondial au TOP500). Les modèles seront documentés et diffusés en open-source, accompagnés de scripts pour le fine-tuning. Profil du candidat : Capacité à travailler en équipe dans un environnement mêlant informatique, biologie et agroécologie. Formation et compétences requises : Étudiant·e en Master 2 ou école d’ingénieur avec spécialisation en deep learning. Travail avec Python, Pytorch/Tensorflow, Github, Intégration Continue. Expérience en traitement d’images. Adresse d’emploi : La rémunération selon barème légal des stages sera de 600€ mensuel, avec accès à la restauration collective le midi. Le stage aura lieu au Cirad de Montpellier, 389 Av. Agropolis, 34980 Montferrier-sur-Lez. Document attaché : 202412041713_Offre de stage M2 – 2025 – DADY.pdf
|