Postes/PostDocs/CDD
Apr 29 Wed 2026 Offre en lien avec l’Action/le Réseau : – — –/Innovation Laboratoire/Entreprise : Université de Technologie de Troyes Durée : 4 ans (2+2) Contact : malika.kharouf@utt.fr Date limite de publication : 2026-04-29 Contexte : L’expert (F/H) en Intelligence Artificielle sera intégrée à la Direction de la Formation et de la Pédagogie (DFP) de l’Université de Technologie de Troyes (UTT). Dans le cadre du Cluster IA Hi!Paris, financé par France 2030, elle fera partie d’une équipe projet impliquant la formation initiale, la formation continue, la coopérative pédagogique (le centre d’innovation pédagogique de l’UTT) et aura pour missions principales : 1. Le soutien actif à la création et la mise à jour des contenus pédagogiques dédiés au Bachelor en Intelligence Artificielle. 2. L’apport de son expertise technique et scientifique aux équipes enseignantes, de la DFP et de la Coop afin d’assurer la qualité, la pertinence et l’innovation des contenus proposés. 3. Assurer un volume annuel de 100 heures équivalent Travaux Dirigés (TD) 4. Contribuer aux comptes rendus, rapports d’activité et constitution de pièces justificatives demandées par le financeur. Sujet : Activités principales : • Identifier les besoins spécifiques en formation IA. • Adapter les contenus pédagogiques à différents publics (débutants, confirmés, professionnels). • Assister les équipes pédagogiques dans l’intégration des dernières avancées technologiques et scientifiques en IA. • Organiser des sessions de formation interne et/ou d’accompagnement pédagogique. • Dispenser des enseignements de l’IA comprenant cours magistraux, travaux dirigés, travaux pratiques et projets. • Évaluer les compétences acquises par les étudiants. • Participer aux jurys d’examen et à la coordination pédagogique du Bachelor.• Garantir la pertinence, l’actualité et l’évolutivité des ressources pédagogiques en fonction des avancées du domaine • Contribuer à la démarche qualité des formations : recueil des retours d’expérience, évaluation des apprentissages, ajustements continus • Soutenir, ponctuellement, les activités de la DFP Profil du candidat : • Connaissances approfondies des fondements théoriques et techniques de l’Intelligence Artificielle (machine learning, deep learning, NLP, vision artificielle, systèmes experts, apprentissage par renforcement, éthique de l’IA, optimisation algorithmique, statistiques avancées). • Connaissances générales des principaux outils et plateformes utilisés en IA (TensorFlow, PyTorch, scikit-learn, Keras, etc.). • Capacité à créer, adapter et mettre à jour des contenus pédagogiques innovants adaptés à différents formats (présentiel, distanciel, hybride). • Mise en œuvre de cas réels ou simulés d’utilisation de l’IA lors de projets ou de TP. • Maîtrise des outils technologiques et pédagogiques liés à l’IA. • Aptitude à évaluer efficacement les compétences des étudiants. • Rédiger des documents pédagogiques, rapports d’activités, bilans et supports de communication Formation et compétences requises : Adresse d’emploi : 12 rue Marie Curie, 10300 Troyes Document attaché : 202509111211_F_H Ingénieur_Expert_IA.pdf
|
Offres de stages
Feb 1 Sun 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LaSTIG – IGN Durée : 6 mois Contact : alexandre.hippert-ferrer@ign.fr Date limite de publication : 2026-02-01 Contexte : Sujet : Voir offre au format pdf. Profil du candidat : Niveau Master 2 en Machine Learning / Télédétection / Sciences de la Terre Formation et compétences requises : The internship requires a genuine interest and curiosity in Earth sciences (glaciology and climate science in particular). Strong skills in statistical mathematics, deep learning, computer vision, and remote sensing are expected. Proficiency in one or more machine learning libraries in Python (PyTorch, Tensorflow, Keras) is expected. A good level of scientific computing with Python (scipy, scikit-learn, numpy) is also required. Adresse d’emploi : LaSTIG Laboratory, IGN/ENSG, 6-8 avenue Blaise Pascal, 77420 Champs-sur-Marne, France. Document attaché : 202510081015_fiche_stageM2_GlacierDeepLearning_eng.pdf Feb 2 Mon 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : institut Fresnel Durée : 4 à 6 mois Contact : andre@fresnel.fr Date limite de publication : 2026-02-02 Contexte : Les technologies d’imagerie capables de détecter les processus biologiques précoces in vivo de manière non invasive pour des études longitudinales, avec une haute résolution, représentent un défi pour la recherche biomédicale. Le concept de notre système d’imagerie repose sur un nouveau d’imagerie optique diffuse de fluorescence multicolore pour l’imagerie in vivo du petit animal en trois dimensions (3D) dans la fenêtre NIR-II (1000-2000 nm). La tomographie optique diffuse de fluorescence consiste à injecter au sujet (ici une souris) des substances chimiques qui se fixent sur différents organes. Ces substances chimiques, appelées fluorophores, sont alors excitées par une source lumineuse puis réémettent de la lumière lors de leur relaxation, à plus faible énergie (plus longue longueur d’onde). L’objectif est de reconstruire des images à partir de ce signal de fluorescence. Le signal de fluorescence ainsi que la source d’excitation peuvent être atténués à la fois par l’absorption et la diffusion des différents milieux traversés, ce qui entraîne une distorsion des spectres mesurés. La reconstruction des images est généralement un problème mal-posé nécessitant l’utilisation d’algorithmes d’optimisation exploitant des connaissances apriori sur les volumes à reconstruire. Sujet : Le but du stage est le développement d’algorithmes de reconstruction spécifiques aux images hyper-spectrales i.e. lorsque le sujet est excité avec différentes longueurs d’onde et que le signal de fluorescence est échantillonnée à plusieurs longueurs d’onde. Les connaissances apriori sur les volumes à reconstruire seront estimées à l’aide d’algorithmes de deep learning. Profil du candidat : Le candidat recruté devra avoir être en dernière année d’école d’ingénieurs ou en Master 2 dans le domaine des mathématiques appliquées, le traitement du signal/images ou dans une formation équivalente. Il devra être particulièrement à l’aise en programmation (python/Matlab) et avoir une réelle appétence pour les interactions entre l’informatique et la physique. Formation et compétences requises : Adresse d’emploi : 52 Av. Escadrille Normandie Niemen, 13013 Marseille Document attaché : 202509290900_stage tomo hyper spectral.pdf Apr 29 Wed 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : institut Fresnel Durée : 4 à 6 mois Contact : andre@fresnel.fr Date limite de publication : 2026-04-29 Contexte : Sujet : See attached file Profil du candidat : Formation et compétences requises : Adresse d’emploi : 52 Av. Escadrille Normandie Niemen, 13013 Marseille Document attaché : 202509111720_sujet stage MRI CS.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : institut Fresnel Durée : 4 à 6 mois Contact : andre@fresnel.fr Date limite de publication : 2026-04-29 Contexte : Sujet : please see the attached file Profil du candidat : Formation et compétences requises : Adresse d’emploi : 52 Av. Escadrille Normandie Niemen, 13013 Marseille Document attaché : 202509111718_sujet stage SRH.pdf Apr 30 Thu 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIP6, Sorbonne University Durée : 5-6 months Contact : rafael.angarita@lip6.fr Date limite de publication : 2026-04-30 Contexte : Sujet : Participatory democracy platforms (Make, Decidim, Cap Collectif, Consul) enable thousands of citizens to propose and discuss ideas for public policies. However, the large volume of textual contributions produces severe information overload: citizens struggle to identify similar or opposing proposals, while decision-makers face difficulty in detecting consensus or disagreement. Recent research at LIP6 has shown that Natural Language Processing (NLP) can detect argumentative relations between citizen proposals (equivalence, contradiction, neutrality). These relations can be structured into argumentative graphs, which help organize debates and improve navigation within large participatory datasets. This internship aims to extend these ideas using Graph Retrieval-Augmented Generation (Graph-RAG). By combining graph-based retrieval with language generation, the project seeks to build intelligent tools capable of summarizing debates, identifying conflicting or redundant proposals, and assisting citizens in writing balanced contributions. Profil du candidat : Master 2 / Final-year engineering Formation et compétences requises : – Programming: Python, PyTorch or TensorFlow – NLP / ML: Experience with large language models, embeddings, or NLP tasks – Data Science: Text preprocessing, vector representations, evaluation metrics – Research: Ability to conduct literature reviews, design small experiments, and analyze results – Participatory democracy: Interest in participatory democracy or computational argumentation Adresse d’emploi : Sorbonne University, 4 place Jussieu 75005 Paris. Document attaché : 202511121059_Stage_LIP6_2025_2026.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIPADE Durée : 6 months Contact : ayoub.karine@u-paris.fr Date limite de publication : 2026-04-30 Contexte : The performance of supervised deep learning methods in computer vision heavily depends on the availability of labeled data, whose annotation is both time-consuming and requires expert knowledge. To overcome this limitation, Self-Supervised Learning (SSL) has emerged as a promising alternative to address the challenge of limited annotations. In this paradigm, models learn from unlabeled data by generating their own supervisory signals. The resulting pre- trained models can then be fine-tuned on various downstream tasks such as image classification, object detection, and semantic segmentation. However, achieving performance comparable to supervised learning often requires large-scale datasets and high training costs, which significantly increase computational and storage demands. This internship aims to alleviate these constraints by exploring data distillation techniques to make SSL training more efficient. Sujet : Dataset Distillation (DD) [1] aims to condense a large-scale training dataset into a much smaller synthetic one such that models trained on the distilled data achieve performance comparable to those trained on the original dataset (see figure 1). Most existing DD methods are designed for efficient supervised learning and can be broadly classified into three main categories [2] : (1) Performance Matching, which minimizes the loss on the synthetic dataset by aligning the performance of models trained on real and synthetic data, (2) Parameter Matching, which trains two neural networks respectively on real and synthetic data and encourages similarity in their parameters and (3) Distribution Matching, which generates synthetic data that closely mimics the distribution of the original dataset. In this internship, we will focus on the Parameter Matching approach. Building upon the work of Cazenavette et al. [3], the authors of [4] extended this concept to SSL using knowledge distillation [5, 6, 7], particularly employing SSL methods such as Barlow Twins and SimCLR. In the same vein, this internship will explore the DINO (self-DIstillation with NO labels, MetaAI) SSL method [8], which naturally produces teacher–student parameter trajectories that can be leveraged for Parameter Matching. The different steps of the internship are : ▷ Step 1 – Literature review : Review recent dataset distillation methods applied to computer vision, with a focus on parameter matching and SSL-based approaches. ▷ Step 2 – Trajectory Observation : Analyze and visualize the teacher–student parameter trajectories generated by DINO during SSL training. ▷ Step 3 – Integration into Data Distillation Frameworks : Design a trajectory matching loss based on DINO’s teacher–student dynamics and train a student model on synthetic data guided by these trajectories. ▷ Step 4 – Test on down-stream computer vision tasks : Assess the effectiveness of the proposed approach on tasks such as image classification – Bibliography [1] Tongzhou Wang et al. “Dataset distillation”. In : arXiv preprint arXiv :1811.10959 (2018). [2] Ruonan Yu, Songhua Liu et Xinchao Wang. “Dataset distillation : A comprehensive review”. In : IEEE transactions on pattern analysis and machine intelligence 46.1 (2023), p. 150-170. [3] George Cazenavette et al. “Dataset distillation by matching training trajectories”. In : Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022, p. 4750-4759. [4] Siddharth Joshi, Jiayi Ni et Baharan Mirzasoleiman. “Dataset Distillation via Knowledge Distillation : Towards Efficient Self-Supervised Pre-training of Deep Networks”. In : The Thirteenth International Conference on Learning Representations. 2025. url : https://openreview.net/forum?id=c61unr33XA. [5] Geoffrey Hinton, Oriol Vinyals et Jeff Dean. “Distilling the knowledge in a neural network”. In : arXiv preprint arXiv :1503.02531 (2015). [6] Ayoub Karine, Thibault Napoléon et Maher Jridi. “I2CKD : Intra- and inter-class knowledge distillation for semantic segmentation”. In : Neurocomputing 649 (oct. 2025), p. 130791. url : https://hal.science/hal-05144692. [7] Ayoub Karine, Thibault Napoléon et Maher Jridi. “Channel-spatial knowledge distillation for efficient semantic segmentation”. In : Pattern Recognition Letters 180 (avr. 2024), p. 48-54. url : https://hal.science/hal-04488459. [8] Oriane Siméoni et al. “Dinov3”. In : arXiv preprint arXiv :2508.10104 (2025) Profil du candidat : The ideal candidate should have knowledge in deep learning, computer vision, Python programming and an interest in efficient machine/deep learning. Formation et compétences requises : Master 2 student or final year of MSc, or engineering school in computer science. Adresse d’emploi : 45 rue des Saints-Pères, 75006, Paris Document attaché : 202511111324_2025_Internship_DD_SSL.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LISTIC Durée : 4-6 mois Contact : christophe.lin-kwong-chon@univ-smb.fr Date limite de publication : 2026-04-30 Contexte : Sujet : Interprétabilité en IA des séries temporelles radar (descriptions détaillées dans la fiche attachée) Profil du candidat : Des compétences en machine learning sont attendues. Le stage portera exclusivement sur la programmation en Python. Une expérience en télédétection radar, géophysique des volcans ou en explicabilité/interprétabilité de l’IA serait un atout. Formation et compétences requises : Adresse d’emploi : LISTIC, 5 chemin de bellevue, 74944, Annecy le Vieux Document attaché : 202510060816_Sujet – Interprétabilité en IA des séries temporelles radar.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIPADE Durée : 6 months Contact : ayoub.karine@u-paris.fr Date limite de publication : 2026-04-30 Contexte : Recently, several Large Vision Foundation Models (LVFMs) have been proposed in the literature [1]. They are trained through a Self-Supervised Learning (SSL) paradigm on large-scale unlabeled datasets and evaluated on small labeled datasets (fine-tuning). These models have achieved state-of-the-art performance across a wide range of downstream computer vision tasks, including both non-dense tasks (e.g., image classification, image retrieval) and dense tasks (e.g., semantic segmentation, object detection). However, the growing size and computational demands of the LVFMs significantly constrain their applicability in resource-limited devices (e.g., drone, smarphone). For instance, CLIP (Contrastive Language–Image Pretraining, OpenAI) [2] comprises up to 0.4 billion parameters, DINOv3 (self- DIstillation with NO labels, MetaAI) [3] includes models with up to 7 billion parameters, and the SAM 2 (Segment Anything Model, Meta AI) [4] exceeds 224 million parameters. To reduce the computational demands of such massive architectures, this internship will focus on investigating knowledge distillation techniques. Sujet : The knowledge distillation (KD) technique [5, 6, 7] transfers knowledge from a powerful teacher network to a smaller student model, enabling the student to achieve significantly improved performance with lower computational cost. In this process, the student is trained on the same dataset as the teacher, allowing it to directly leverage the teacher’s learned representations. However, directly applying KD to LVFMs presents several challenges. First, the most performant LVFMs are developed by large tech companies, and their training datasets are often not publicly available. Second, these LVFMs typically employ Vision Transformer (ViT) architectures [8] as encoders, whereas convolutional neural networks (CNNs) are generally lighter and more computationally efficient, making them strong candidates for student models on edge devices. Third, there are significant discrepancies in capacity between LVFMs and smaller edge models. The latter two challenges are partially addressed by Lee et al. [9], who propose a method to customize the well-generalized features of LVFMs for a given student model. Despite promising results, this work does not thoroughly address the issues of unavailable source datasets and cross-architecture knowledge transfer. Additionally, only the image classification task is considered. In this internship, we aim to tackle these challenges by investigating state-of-the-art methods for cross-architecture KD [10], data-free KD [11] and adaptive KD [12]. As illustrated in figure 1, we will focus on two dense down-stream tasks : semantic segmentation and object detection. The different steps of the internship are : ▷ Step 1 – Literature review on KD from foundation models ▷ Step 2 – Compare different methods of cross-architecture KD, data-free KD and adaptive KD : The teacher will be a LVFM such as CLIP, DINOv3 and SAM2. The student encoder should be a CNN one like ResNet18. ▷ Step 3 – Test the student model on different semantic segmentation and object detection datasets : A comparison is to be done with classical KD methods dedicated to dense prediction. – Bibliography [1] Muhammad Awais et al. “Foundation models defining a new era in vision : a survey and outlook”. In : IEEE Transactions on Pattern Analysis and Machine Intelligence (2025). [2] Alec Radford et al. “Learning transferable visual models from natural language supervision”. In : International conference on machine learning. PmLR. 2021, p. 8748-8763. [3] Oriane Siméoni et al. “Dinov3”. In : arXiv preprint arXiv :2508.10104 (2025). [4] Nikhila Ravi et al. “Sam 2 : Segment anything in images and videos”. In : arXiv preprint arXiv :2408.00714 (2024) [5] Geoffrey Hinton, Oriol Vinyals et Jeff Dean. “Distilling the knowledge in a neural network”. In : arXiv preprint arXiv :1503.02531 (2015). [6] Ayoub Karine, Thibault Napoléon et Maher Jridi. “I2CKD : Intra- and inter-class knowledge distillation for semantic segmentation”. In : Neurocom- puting 649 (oct. 2025), p. 130791. doi : 10.1016/j.neucom.2025.130791. url : https://hal.science/hal-05144692. [7] Ayoub Karine, Thibault Napoléon et Maher Jridi. “Channel-spatial knowledge distillation for efficient semantic segmentation”. In : Pattern Recognition Letters 180 (avr. 2024), p. 48-54. doi : 10.1016/j.patrec.2024.02.027. url : https://hal.science/hal-04488459. [8] Alexey Dosovitskiy et al. “An Image is Worth 16×16 Words : Transformers for Image Recognition at Scale”. In : International Conference on Learning Representations. 2021. url : https://openreview.net/forum?id=YicbFdNTTy. [9] Jungsoo Lee et al. “Customkd : Customizing large vision foundation for edge model improvement via knowledge distillation”. In : Proceedings of the Computer Vision and Pattern Recognition Conference. 2025, p. 25176-25186. [10] Weijia Zhang et al. “Cross-Architecture Distillation Made Simple with Redundancy Suppression”. In : Proceedings of the IEEE/CVF International Confe- rence on Computer Vision. 2025, p. 23256-23266. [11] Qianlong Xiang et al. “Dkdm : Data-free knowledge distillation for diffusion models with any architecture”. In : Proceedings of the Computer Vision and Pattern Recognition Conference. 2025, p. 2955-2965. [12] Yichen Zhu et Yi Wang. “Student customized knowledge distillation : Bridging the gap between student and teacher”. In : Proceedings of the IEEE/CVF International Conference on Computer Vision. 2021, p. 5057-5066. Profil du candidat : The ideal candidate should have knowledge in deep learning, computer vision, Python programming and an interest in efficient deep learning. Formation et compétences requises : Master 2 student or final year of MSc, or engineering school in computer science Adresse d’emploi : 45 rue des Saints-Pères, 75006, Paris Document attaché : 202511111320_2025_Internship_KD_LVFM.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LISTIC Durée : 4-6 mois Contact : argheesh.bhanot@univ-smb.fr Date limite de publication : 2026-04-30 Contexte : Sujet : En sciences naturelles, la modélisation des phénomènes physiques constitue toujours un sujet difficile. Les formules existantes ne suffisent parfois pas à représenter adéquatement les mécanismes complexes, notamment ceux qui ne sont pas directement observables. Il arrive également que ces formules ne correspondent pas parfaitement aux observations issues des données. Ces problèmes ont, par exemple, été rencontrés dans le suivi de la concentration des polluants, l’étalement de la végétation ou encore les coulées de lave. Dans ce projet, nous nous concentrons sur la modélisation volcanique. En volcanologie, par exemple, les scientifiques disposent de mesures de déplacements en surface, obtenues grâce à l’imagerie SAR, induits par une source volcanique en profondeur, et utilisent ces mesures pour estimer les paramètres physiques d’un modèle volcanique. Dans un premier temps, nous sommes partis d’un modèle simple sous forme d’une expression analytique : le modèle Mogi. Dans ce modèle, deux paramètres clés, la variation du volume et la profondeur de la chambre magmatique ont été modifiés pour générer des données synthétiques. En utilisant la régression symbolique, nous avons exploré des expressions mathématiques directement à partir des données. La pertinence de l’approche et la sensibilité de la modélisation à la variété de l’activité volcanique, sur des données synthétiques et des sites volcaniques réels, ont été mesurées et comparées au modèle Mogi original. L’approche fonctionne bien jusqu’à un certain niveau de bruit, notamment sur les données synthétiques. L’objectif du stage consiste à utiliser les méthodes de régression symbolique pour affiner le modèle Mogi, car il reste une vision simplifiée de la physique sous-jacente. Des travaux supplémentaires sont encore nécessaires pour améliorer les résultats sur les données réelles en proposant des nouvelles techniques en régression symbolique. En s’appuyant sur des travaux d’IA classique développés au laboratoire sur l’inversion de modèles géophysiques, trois types de données sont disponibles pour créer un cadre expérimental et de validation : 1) des déplacements simulés à partir du modèle Mogi ; 2) des déplacements simulés avec un bruit ajouté ; 3) des déplacements réels sur des volcans africains. Selon l’avancement du projet, cette étude pourra être étendue à un modèle volcanique plus sophistiqué, par exemple le modèle Okada, qui décrit le mécanisme de fonctionnement d’un volcan à l’aide d’un plus grand nombre de paramètres et s’appuie sur des équations différentielles. Le stagiaire appuiera entre autres sur les articles suivants : – Cranmer, M. (2023). Interpretable machine learning for science with PySR and SymbolicRegression. jl. arXiv preprint arXiv:2305.01582. – Tenachi, W., et al. (2023). Physical Symbolic Optimization. arXiv preprint arXiv:2312.03612. – Albino, F., & Biggs, J. (2021). Magmatic processes in the East African Rift system: insights from a 2015– 2020 Sentinel‐1 InSAR survey. Geochemistry, Geophysics, Geosystems, 22(3), e2020GC009488. – Dzurisin, D. (2007), Volcano Deformation: Geodetic Monitoring Techniques. Mogi, K. (1958), Bull. Earthq. Inst. U. Tokyo, 36, 99‐134 Delaney, P., McTigue, D. (1994) Bull. Volcanology, 56 417‐42 – Lopez-Uroz L, Yan Y., Benoit A., Albino F., Bouygues P., Giffard-Roisin S., Pinel V., Exploring Deep Learning for Volcanic Source Inversion, IEEE Transactions on Geosciences & Remote Sensing. – Petersen, B. K., et al. (2019). Deep symbolic regression: Recovering mathematical expressions from data via risk-seeking policy gradients. arXiv preprint arXiv:1912.04871. Profil du candidat : Formation et compétences requises : Adresse d’emploi : LISTIC, 5 chemin de bellevue, 74944, Annecy le Vieux, France. Document attaché : 202510221322_stage_regressionsymbolique_2026.pdf Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : LIPADE & APC Durée : 6 mois Contact : ayoub.karine@u-paris.fr Date limite de publication : 2026-04-30 Contexte : Sujet : Deep Learning techniques have revolutionized artificial intelligence. Their application to astrophysics and cosmology permits us to analyze the large quantity of data obtained with current surveys and expected from future surveys with the aim of improving our understanding of the cosmological model. The internship is in the context of the data acquired by Vera Rubin Observatory (https://www.lsst.org/about) LLST (Legacy Survey of Space and Time), in particular in the context of the Dark Energy (DESC) and Galaxies Rubin Science Collaborations (https://rubinobservatory.org/for-scientists/science-collaborations), and of the Euclid space mission (https://sci.esa.int/web/euclid). Galaxy clusters are powerful probes for cosmological models. LSST and Euclid will reach unprecedented depths and, thus, they require highly complete and pure cluster catalogs, with a well-defined selection function. In this internship, we will focus on analysing astronomical images through deep learning. Our team have developed a new cluster detection algorithm named YOLO for CLuster detection (YOLO-CL), which is a modified version of the state-of-the-art object detection deep convolutional network named You only look once (YOLO) that has been optimized for the detection of galaxy clusters [1,2]. The YOLO approach is a convolution-based method that primarily captures local features. In this internship, we aim to investigate transformer-based methods to model global relationships across entire astronomical images. These models are capable of capturing spatial and contextual interactions between multiple objects, which is expected to enhance detection performance compared to YOLO in our target application. In this context, we focus on the Detection Transformer (DETR) framework [3], an end-to-end architecture that employs a transformer encoder–decoder network. – Bibliography [1] Grishin, Kirill, Simona Mei, and Stéphane Ilić. “YOLO–CL: Galaxy cluster detection in the SDSS with deep machine learning.” Astronomy & Astrophysics 677 (2023): A101. [2] Grishin, Kirill, Simona Mei, Stephane Ilic, Michel Aguena, Dominique Boutigny, and Marie Paturel. “YOLO-CL cluster detection in the Rubin/LSST DC2 simulations.” Astronomy & Astrophysics 695 (2025): A246. [3] Carion, Nicolas, Francisco Massa, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov, and Sergey Zagoruyko. “End-to-end object detection with transformers.” In European conference on computer vision, pp. 213-229. Cham: Springer International Publishing, 2020. Profil du candidat : The ideal candidate should have knowledge in deep learning, computer vision, Python programming and an interest in handling astronomical images. We have already obtained funding for the internship for 3-6 months. Formation et compétences requises : Master 2 or final year of MSc, or engineering school students in computer science. Adresse d’emploi : 10 rue A.Domon et Léonie Duquet, 75205 Paris and/or 45 rue des Saints-Pères, 75006, Paris Document attaché : 202511111316_2025_Internship_Transformer-ClusterDetection.pdf Jun 1 Mon 2026 Offre en lien avec l’Action/le Réseau : – — –/– — – Laboratoire/Entreprise : Laboratoire d’Informatique et Systèmes Durée : 3 à 6 mois Contact : alexis.guyot@lis-lab.fr Date limite de publication : 2026-06-01 Contexte : L’ingénierie des connaissances vise à modéliser, structurer et exploiter des savoirs pour les rendre manipulables par des systèmes informatiques. Au cœur de cette démarche, une ontologie est une représentation formelle d’un domaine : elle définit des concepts (classes), leurs relations (propriétés) et des contraintes/axiomes (p. ex. hiérarchies, cardinalités). Les ontologies favorisent l’interopérabilité sémantique entre systèmes hétérogènes, facilitent l’intégration des données, soutiennent le raisonnement (inférences, vérification de cohérence) et encadrent la gouvernance des connaissances au moyen de référentiels partagés. Des outils comme Protégé font aujourd’hui autorité pour l’édition d’ontologies. Le stage consiste à prototyper une alternative à Protégé en développant une surcouche d’édition et de raisonnement au-dessus du SGBD orienté graphe Neo4j, combinant ergonomie moderne, exploitation riche de graphe et compatibilité OWL (OWL API, moteurs de raisonnement standards). L’enjeu est de livrer une expérience contemporaine et efficace, sans réinventer les composants qui existent déjà lorsqu’ils sont adaptés. Sujet : **But du stage** Concevoir et prototyper une application moderne (plutôt web, mais desktop possible) servant de sur-couche à Neo4j pour créer, éditer, valider et raisonner sur des ontologies (OWL/SWRL), avec une attention forte portée à l’UX et à l’esthétique. L’application doit ester interopérable avec l’écosystème existant (dont Protégé) tout en capitalisant sur les forces de Neo4j. **Objectifs et missions** Le/la stagiaire commencera par cadrer formellement le projet : étude de Protégé (exploration libre de l’outil, lecture de la documentation, entretiens avec des experts pour cerner besoins et limites de l’existant) ; rapide panorama des fonctionnalités des autres éditeurs d’ontologies, éventuellement complété par un album de captures pour comparer l’UX ; identification des contraintes techniques de l’existant (écosystème Neo4j, briques OWL/SWRL, validation et raisonnement) et repérage des bonnes pratiques UX 2025 pour guider la conception. Sur cette base, il/elle rédigera des spécifications fonctionnelles et techniques pour le nouvel outil, puis développera un prototype de manière incrémentale : éditeur de d’ontologies ergonomique connecté à Neo4j, import/export assurant l’interopérabilité, mécanismes de validation, etc. Selon la durée et le profil, le stage pourra s’étendre à l’édition d’axiomes et de règles, à l’intégration d’un raisonneur standard et à la création d’un démonstrateur complet sur une ontologie de référence. **Technologies envisagées** Côté interface, l’option prioritaire est une application web en TypeScript s’appuyant sur React ou SvelteKit, avec un composant d’édition de graphes adapté (par ex. React Flow ou Cytoscape.js), des moteurs de layout (elkjs/dagre) et un système de design moderne (Tailwind avec composants accessibles type Radix/shadcn). Cette combinaison permet de viser une UX actuelle : thèmes (y compris dark mode), accessibilité, performance (virtualisation), micro-interactions sobres. En alternative desktop, on pourra empaqueter l’interface web via Electron ou Tauri, ou opter pour une interface native en JavaFX (Java) ou JetBrains Compose for Desktop (Kotlin), afin de faciliter l’intégration directe avec les bibliothèques web sémantique de l’écosystème Java. Pour le backend, une pile Java avec Spring Boot est privilégiée afin d’intégrer naturellement OWL API/Apache Jena, de s’interfacer avec un raisonneur standard (HermiT, Pellet, Fact++), et de dialoguer avec Neo4j via le driver Java et neosemantics (n10s) pour les échanges RDF/OWL. La validation pourra s’appuyer sur SHACL. L’API sera exposée simplement (REST/JSON ou gRPC) et restera découpée de façon à pouvoir évoluer (microservice dédié aux fonctions ontologiques si nécessaire). Profil du candidat : — Niveau : Bac+3 à Bac+5 (informatique / BD / IA / génie logiciel / IHM). — Dominantes possibles : développement front moderne (TS + React/SvelteKit), Java et conception d’API, bases de données, graphes, web sémantique (OWL/RDF, SWRL, SHACL), UX/UI. — Qualités attendues : autonomie, rigueur, curiosité, sens de l’ergonomie, communication. Formation et compétences requises : Adresse d’emploi : LIS UMR 7020 CNRS / AMU / UTLN, équipe IACD Aix Marseille Université – Campus de Saint Jérôme – Bat. Polytech 52 Av. Escadrille Normandie Niemen 13397 Marseille Cedex 20 Document attaché : 202510011418_2025_Sujet_Stage_NeOWL4J.pdf
|