Conférence d’APprentissage automatique (CAP-2025)

Date : 2025-06-30 => 2025-07-02
Lieu : Dijon, France

CALL FOR PAPERS CAP-2025

La conférence CAP est un rassemblement interdisciplinaire de chercheurs à l’intersection de l’apprentissage automatique, des mathématiques appliquées et des domaines connexes. Le site web de soumission est ouvert.

Cette année, la conférence est organisée dans le cadre de la plate-forme PFIA-2025, et aura lieu à Dijon (France) du 30 juin au 2 juillet.

Les articles soumis peuvent être rédigés en anglais ou en français et nous encourageons plusieurs types de soumissions :

– Articles récemment acceptés (2024 ou 2025) à des conférences de haut niveau. Ces articles doivent être soumis dans le format original de la conférence (longueur et style). Ils feront l’objet d’une seule évaluation.

– Des articles originaux longs sur le thème de la théorie de l’apprentissage automatique et de ses applications. Ils ne doivent pas dépasser 12 pages au format CAp (hors références et annexes, un modèle LaTeX adapté est disponible ici). Ils feront l’objet d’au moins deux évaluations.

– Des articles courts qui présentent des idées originales et donnent l’occasion de décrire un travail significatif en cours. Ils ne doivent pas dépasser 8 pages au format CAp (sans les références et les annexes, un modèle LaTeX approprié est disponible ici). Ils feront l’objet d’au moins deux évaluations.

Cette année, il n’y aura pas d’actes. Les travaux acceptés pour présentation seront listés sur le site web avec, éventuellement, un lien vers les articles complets lorsque ceux-ci sont fournis par les auteurs.

Tous les travaux acceptés auront la possibilité d’être présentés sous forme de posters lors de la conférence. Certains articles seront également présentés oralement, soit lors d’une session réservée à la conférence CAP, soit lors d’une session conjointe CAP/SFC (Société Française de Classification) (pour les articles qui ont été plus spécifiquement identifiés comme étant à l’intersection des deux conférences). Ces présentations sont l’occasion d’avoir un retour constructif et rigoureux, ainsi que d’établir des contacts avec les membres de la communauté française de l’apprentissage automatique. Les doctorants sont particulièrement bienvenus et encouragés à soumettre des communications.

Dates clés :

– Conférence : 30 juin – 2 juillet 2025
– Date limite de soumission d’articles : 15 mars 2025

– Notification aux auteurs : 15th avril 2025
– Ouverture des inscriptions : 21 avril 2025
– Date limite des inscriptions à tarif réduit : 22 mai 2025

Thèmes :

La conférence CAP 2025 invitent les personnes travaillant dans des domaines liés à n’importe quel aspect de l’apprentissage automatique à soumettre des articles originaux. Les sujets sollicités incluent, mais ne sont pas limités à :

— Théorie de l’apprentissage modèles et paradigmes

Apprentissage actif
Apprentissage en ligne
Apprentissage multi-classes, multi-tâches, multi-vues, et apprentissage par transfert
Apprentissage supervisée, semi-supervisé et non supervisé
Apprentissage par renforcement
Apprentissage relationnel
Apprentissage de représentation
Apprentissage symbolique
Algorithmes de bandits
Factorisation de matrices et de tenseurs
Transport optimal pour l’Apprentissage automatique
Induction grammaticale
Méthodes à noyaux
Méthodes bayésiennes
Processus stochastiques
Méthodes d’ensemble et boosting
Modèles graphiques
Processus gaussiens
Réseaux de neurones et Apprentissage profond
Théorie de l’Apprentissage
Théorie des jeux

— Optimisation et problèmes liés

Apprentissage automatique à grande échelle et optimisation
Algorithmes d’optimisation
Optimisation distribuée
Apprentissage automatique et données structurées (spatio-temporelle, arbres, graphes, …)
Classification avec données manquantes

— Apprentissage automatique de confiance

Equité
Transparence
Interprétabilité et explicabilité
Privacy et sécurité
Durabilité
Causalité
Alignement et vérification

— Applications

Analyse des réseaux sociaux
Analyse de données temporelles
Bioinformatique
Fouille de données
Neurosciences
Traitement automatique du langage
Recherche d’information
Vision par ordinateur

Antoine Cornuéjols et Vincent Guigue
Co-Presidents of CAP-2025

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

DADY : un modèle fondation de réseau de neurones pour l’observation aérienne time-lapse de systèmes agroécologiques au Sud

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Cirad, Montpellier
Durée : 6 mois
Contact : romain.fernandez@cirad.fr
Date limite de publication : 2025-03-01

Contexte :
Le projet DeepAeroDynamics (DADY) vise à combiner l’imagerie drone multispectrale time-lapse et
le deep learning pour faire face aux défis du changement climatique et de la sécurité alimentaire dans les
pays du Sud. L’objectif est de développer un modèle fondation capable d’intégrer les données
multispectrales, spatiales et temporelles observées par drone aérien dans des environnements complexes
et hétérogènes du Sud dans le but d’anticiper et prédire le comportement de plantes cultivées en
agroécologie (Sahel, Madagascar, Guadeloupe).

Sujet :
Le stagiaire sera au coeur du développement d’une architecture deep learning permettant :
* D’analyser des séries temporelles multispectrales d’imagerie drone, et extraire automatiquement
des représentations informatives de l’état des systèmes observés.
* D’analyser les dynamiques temporelles en utilisant des modèles de type Transformers pour
capturer les évolutions des cultures décrites dans un espace latent.
* De maximiser l’utilisation des données par des techniques d’apprentissage semi-supervisées et
des consignes prétextes pour maximiser la capacité d’apprentissage de l’architecture fondation.

Le développement des modèles s’appuiera sur des architectures CNN et Transformers. L’approche sera
validée sur des jeux de données déjà acquis et stockés à proximité d’un supercalculateur. Les tests de
niveau 1 s’effectueront sur une ferme GPU locale, et les modèles de niveau 2 seront testés sur les
supercalculateurs Jean Zay et Adastra (20e mondial au TOP500). Les modèles seront documentés et diffusés
en open-source, accompagnés de scripts pour le fine-tuning.

Profil du candidat :
Étudiant·e en Master 2 ou école d’ingénieur avec spécialisation en deep learning. Travail
avec Python, Pytorch/Tensorflow, Github, Intégration Continue.

Formation et compétences requises :
Expérience en traitement d’images.
Capacité à travailler en équipe dans un environnement mêlant informatique, biologie et agroécologie.

Adresse d’emploi :
La rémunération selon barème légal des stages sera de 600€
mensuel, avec accès à la restauration collective le midi. Le stage aura lieu au Cirad de Montpellier, 389 Av.
Agropolis, 34980 Montferrier-sur-Lez.

Document attaché : 202502121716_Offre de stage M2 – 2025 – DADY.pdf

Séminaire « IA Génératives: promesses et défis », du CSI CNRS Sciences Informatiques le 12 Mars 2025 à Paris

Date : 2025-03-12
Lieu : Siège du CNRS
3 rue Michel-Ange
75016 Paris

Chères et chers collègues,

Le Conseil scientifique d’institut de CNRS Sciences informatiques organise une journée autour des promesses et défis de l’IA générative. Nous vous invitons à réserver la date de l’événement se tenant le:

12 Mars 2025
au siège du CNRS
3 rue Michel-Ange
75016 Paris

La journée adressera les promesses de l’IA générative, notamment dans les domaines du traitement des langues, du génie logiciel, des données multimodales (images et vidéo), des neurosciences, ou encore de la physique. Cela sera aussi l’occasion d’aborder certains défis liés à l’IA générative, tels que les biais, la prévention des contenus indésirables ou l’éco-responsabilité à travers des exposés et des tables rondes.

Le programme du séminaire sera publié prochainement. En attendant, vous pouvez déjà consulter la liste des intervenants du séminaire sur le site du CSI:
https://www.csi-ins2i.cnrs.fr/content/séminaire-ia-génératives-promesses-et-défis

Vous pouvez dorénavant vous inscrire en suivant ce lien:
https://survey.cnrs-dir.fr/index.php/389271?lang=fr

Bien Cordialement,
Gilles Sassatelli,
Président du Conseil scientifique d’institut de CNRS Sciences Informatiques
Romain Robbes,
Au nom des organisateurs du séminaire

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Webinaire mensuel Action Spécifique Numérique INSU

Date : 2025-02-17
Lieu : Zoom
Webinaire ASNUM (in English) 14:00 15:00

Adeline Paiement
Laboratoire d’Informatique et des Systèmes
Université de Toulon

Domain-informed analysis of (astro)physics data

Machine learning and deep learning methods are increasingly popular for analysing physics and astrophysics data. However, their use often faces some specific challenges, such as the low availability of annotated ground-truth data, or the interpretability of (learning) models and of their prediction results. In this talk, we will review some recent efforts in developing learning methods that address the specific challenges of (astro)physics data. These developments exploit knowledge of the physics problem and data to inform the design of learning models.

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Post-doctorant(e) en Analyse et Apprentissage de Données Multi-modales

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ETIS
Durée : 18
Contact : issam.falih@uca.fr
Date limite de publication : 2025-03-31

Contexte :
En collaboration avec la Société SAFRAN S.A. sont a lea recherche d’un(e) post-doctorant(e) pour participer à un projet innovant de ségrégation et d’analyse de données liées à la chaîne d’approvisionnement.
L’objectif principal est d’intégrer et de structurer des données multi-modales (textuelles, structurées, etc.) afin de développer des textbf{modèles d’apprentissage automatique}
pour détecter et extraire des informations clés, puis prédire un risque associé à ces données.

Sujet :
Missions Principales
1. Analyse et Intégration des Données
— Concevoir et mettre en place des pipelines d’intégration de données multi-sources.
— Nettoyer et structurer les informations pour en faciliter l’exploitation.
2. Modélisation en Intelligence Artificielle
— Développer des modèles de Machine Learning et/ou Deep Learning afin d’extraire
automatiquement des entités (fournisseurs, matières premières, etc.).
— Mettre en place un modèle de prédiction de risque basé sur des données multi-
modales.
3. Validation et Évaluation
— Évaluer les performances des modèles via des métriques appropriées (précision, rappel,
F1-score, etc.).
— Itérer sur la conception des modèles pour améliorer continuellement la robustesse et
la fiabilité.
4. Documentation et Communication
— Rédiger des rapports techniques et des publications scientifiques sur les avancées du
projet.
— Présenter régulièrement les résultats à l’équipe de recherche et aux partenaires impliqués.
1

Profil du candidat :

Profil Recherché
— Doctorat (ou équivalent) en Informatique, Mathématiques appliquées, Traitement
du Langage Naturel, Statistiques ou domaine connexe.
— Première expérience (stage, thèse, postdoc) liée à la data science ou à la recherche
en IA

Formation et compétences requises :
Compétences Requises
1. Data Science & IA
— Excellente maîtrise des méthodes de Machine Learning supervisé/non supervisé
et/ou Deep Learning.
— Connaissances solides en traitement de données textuelles (NLP/TAL) : ex-
traction d’entités, classification, etc.
— Expérience dans la fusion de données (multimodalité) et l’intégration de différentes
sources d’information.
2. Environnements et Outils
— Pratique confirmée des bibliothèques Python (PyTorch, TensorFlow, scikit-learn,
spaCy, etc.).
— Connaissances en ingénierie de la donnée (ETL, bases SQL/NoSQL, data pipeline).
— Maîtrise des bonnes pratiques de versioning et de gestion de code (Git).
3. Rigueur Scientifique et Organisation
— Capacité à mener des expérimentations rigoureuses (protocoles, reproductibilité, re-
porting).
— Veille technologique et scientifique pour adapter rapidement les approches existantes.
4. Qualités Humaines
— Autonomie, sens de l’initiative et esprit collaboratif.
— Excellentes capacités de communication (orales et écrites).
— Respect de la confidentialité et des contraintes liées aux données sensibles.

Adresse d’emploi :
Conditions du Poste
— Localisation : ETIS CNRS UMR 8051, CY Cergy paris Unviersity, Site de Saint-
Martin 2 Av. Adolphe Chauvin, 95300 Pontoise et SAFRAN.
— Type de contrat : CDD postdoctoral (12 à 18 mois, à discuter).
— Rémunération : Selon expérience et grille de salaire applicable.
— Lieu : Poste localisé à l’université de Cergy au sein du laboratoire d’ETIS.
— Disponibilité : Dès que possible.

Document attaché : 202502111631_SupplyChain_project-2.pdf

Extraction de motifs dans les graphes à l’aide de Graph Neural Networks : Vers une formalisation des règles de classification

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ISEA/UNC
Durée : 3 ans
Contact : loic.salmon@unc.nc
Date limite de publication : 2025-02-25

Contexte :

Sujet :
Les graphes dynamiques attribués sont omniprésents dans de nombreux domaines, tels que les réseaux sociaux, la biologie moléculaire, ou les systèmes de recommandation. Cette thèse vise à explorer l’utilisation des Graph Neural Networks (GNN) pour l’extraction de motifs dans les graphes, avec un focus sur la génération de règles de classification formelles et explicables. Les travaux incluront la modélisation des motifs, l’apprentissage des motifs, la génération de règles de classification, et leur validation formelle.

Profil du candidat :

Nous recherchons un(e) candidat(e) motivé(e) avec :
1. Un diplôme de niveau Bac+5 en informatique, mathématiques appliquées, ou domaine connexe.
2. Des compétences en apprentissage automatique, en particulier sur les réseaux de neurones et les GNN.
3. Une appétence pour la théorie des graphes, l’extraction de motifs, et les méthodes formelles.
4. Un bon niveau d’anglais (lu, écrit, parlé).

Formation et compétences requises :

Adresse d’emploi :
Université de la Nouvelle-Calédonie,- BP R4 98851 Nouméa Cedex, Nouvelle-Calédonie ISEA (Institut des Sciences Exactes et Appliquées)

Document attaché : 202502110731_Proposition_de_thèse_GNN_et_extraction_de_motifs.pdf

Offre de thèse – Fact-checking multimédia, multimodal et explicable

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIFAT (Laboratoire d’Informatique Fondamentale et
Durée : 3 ans
Contact : frederic.rayar@univ-tours.fr
Date limite de publication : 2025-06-30

Contexte :
Cette offre de thèse s’inscrit dans le cadre du projet « Fact Checking » mené depuis 2021 entre le laboratoire LIFAT et l’équipe PRIM (chercheurs en Science de l’Information et de la Communication). Le fact checking, ou vérification de fait, consiste à vérifier la véracité des faits présentés dans les médias par des personnalités publiques ou autres organisations.

De nombreux travaux de recherches ont été et sont en train d’être menéspour répondre à l’enjeu majeur de la désinformation, notamment depuis l’avènement des technologies de deep-fake et d’IA génératives. Ce phénomène de désinformation massive est observable dans plusieurs domaines : on peut citer en particulier la sphère politique (« political discourse »), le changement climatique ou encore le domaine de santé (« COVID-19 misinformation »).

Cette thèse vise à la conception et à l’évaluation de nouvelles techniques de détection multimodale (vidéo, image, audio, texte) dans du contenu multimédia (vidéo, audio).

Sujet :
Cette thèse vise à la conception et à l’évaluation de nouvelles techniques de détection multimodale (vidéo, image, audio, texte) dans du contenu multimédia (vidéo, audio).

Pour ce faire, la thèse explorera l’utilisation de concepts d’IA à différents niveaux « Audio-visual Active Speaker identification » (ASD), « Multimodal Named Entity recognition » (MNER), « Retrieval-Augmented Generation » (RAG), etc., et l’exploitation d’une base de données de fait vérifiés existante (base de données issue de travaux précédents ou benchmark existants).

Par ailleurs, compte-tenu de l’impact sociétal de ces travaux, un fort accent sera mis sur l’explicabilité des algorithmes multimodaux proposés, en agrégant différentes solutions : récupération d’information tierces via la recherche d’information, génération textuelle, visualisation d’élément saillant dans les images/vidéos, isolation des séquences d’intérêt dans les pistes audio/vidéos, etc.

Enfin, durant la réalisation de ces travaux de recherche, il s’agira aussi de tenir compte des verrous théoriques et empiriques de l’acception des citoyens d’un tel outil via les notions d’interactions avec les outils développés, et de visualisation interactive et d’ergonomie. Ces aspects seront abordés via une collaboration avec des chercheurs en sciences de l’information et de la communication ou des journalistes et fact-checkers.

Profil du candidat :
M2 en informatique ou diplôme d’ingénieur
Bonnes connaissances en Machine Learning et Intelligence Artificielle
Bonnes connaissances en programmation indispensables
Des compétences en développement web sont souhaitables
Bonnes capacités de communication et de rédaction, en particulier en anglais

Formation et compétences requises :

Adresse d’emploi :
Laboratoire d’Informatique LIFAT
Équipe RFAI (Reconnaissance des Formes et Analyse d’Images)
64 avenue Jean Portalis – 37200 – Tours

Document attaché : 202502101508_2025_PhD_lifat_v3.pdf

Proposition de stage de fin d’études ‐ niveau master

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IMT Atlantique & ENSTA
Durée : 6 mois
Contact : dorian.cazau@ensta.fr
Date limite de publication : 2025-06-30

Contexte :

Sujet :
IA Non‐Supervisée pour le Suivi de la Biodiversité Marine par Acoustique Passive Sous Marine (IANSPAM)

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
Brest ‐ IMT Atlantique / ENSTA

Document attaché : 202502101141_Stage IANSPAM.pdf

Postdoctoral position @ CNES : on the use of machine learning methods to boost LISA’s Global Fit

Offre en lien avec l’Action/le Réseau : DatAstro/– — –

Laboratoire/Entreprise : CNES
Durée : 1 an (renouvelable)
Contact : antoine.basset@cnes.fr
Date limite de publication : 2025-03-28

Contexte :
Space missions have always recorded electromagnetic signals, from infrared light to gamma rays. Expected to launch in 2037, ESA’s large-class mission LISA (Laser Interferometer Space Antenna) will survey gravitational wave signals from space. As the world’s first in-orbit instrument to probe space-time itself, this is one of the most ambitious science missions ever. LISA promises a wealth of new science, allowing us to test our understanding of general relativity and to open a new window for astrophysics and cosmology. The data analysis for this mission will have to disentangle superposed signals from a variety of astrophysical sources, as well as modeling the instrumental noise. This Global Fit is to be tackled in a Bayesian inference framework. The computational challenge will be massive, expected to be about an order of magnitude heavier than the data processing of the recent ESA mission Euclid, in optimistic scenarios. As a consequence, the scientific community is looking for technological and algorithmic breakthroughs, e.g. relying on GPUs, sparsity-based modeling or artificial intelligence.

Sujet :
LISA is expected to detect several kinds of gravitational wave sources, such as white dwarf, neutron star or black hole binaries orbiting in very different configurations. White dwarf binaries in our galaxy (known as galactic binaries, GBs) should be the most numerous sources and have relatively simple signals (quasi-monochromatic); massive black hole binary mergers (MBHBs) will provide a handful of very loud coalescence signals, while extreme mass ratio inspirals (EMRIs) are the most complex and come with a huge uncertainty on the number of occurrences over LISA’s lifetime. In fact, little is known on EMRIs’ analysis, and they could just as easily be negligible or dominate the Global Fit. Certainly, LISA’s data stream will be a continuous superimposition of these many signals together with instrumental noise. The inference of the parameters of each source will require source separation, complicating the estimation of their posterior distributions which is already challenging for isolated gravitational events. When separation is not possible (most notably for GBs), the number of superimposed sources becomes an unknown and the signals themselves form a confusion background comparable to noise; trans-dimensional analysis is then required, which yields additional complexity.

To tackle the challenge of the Global Fit, the currently envisioned approach relies on a Markov chain Monte Carlo (MCMC) strategy, with block Gibbs sampling across the classes of sources (and the noise level) to reduce the complexity. Even using this trick, existing pipeline prototypes are computationally expensive and scale badly. In addition to the computational complexity of the MCMC itself, convergence is hindered by the difficulty of initializing the GlobalFit efficiently, and that of modeling effectively the noise and stochastic background signal. One way to radically speed up computation and lower resource consumption is to find shortcuts in the algorithms. Various Machine Learning (ML) approaches recently showed promising results for greatly accelerating the Global Fit, such as likelihood-free inference, which bypasses the likelihood computation completely, or surrogate-based source search, which rely on extremely fast approximate models to separate sources and initialize the GlobalFit close to the solution. The proposed PostDoc project aims at developing and benchmarking ML methods to boost the Global Fit convergence.

Profil du candidat :
PhD on gravitational waves and/or machine learning methods.

Your application must include
– a recommendation letter from your Ph.D. supervisor
– a detailed CV including university education and work experience
– a list of publications
– a 2-page description of the work undertaken during the course of your PhD.

For more Information, contact : Directeur de Recherche antoine.basset@cnes.fr

Submit the complete application online (Apply) before March 14th, 2025 Midnight Paris time.

Webpage : https://recrutement.cnes.fr/fr/annonce/3487221-25-285-on-the-use-of-machine-learning-methods-to-boost-lisa-s-global-fit-31400-toulouse

Formation et compétences requises :

Adresse d’emploi :
CNES, Toulouse.

Your application must include a recommendation letter from your Ph.D. supervisor, a detailed CV including university education and work experience, a list of publications, a 2-page description of the work undertaken during the course of your PhD.

For more Information, contact : Directeur de Recherche antoine.basset@cnes.fr

Submit the complete application online (Apply) before March 14th, 2025 Midnight Paris time.

Représentation des grandeurs physiques dans le Web sémantique

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Mines Saint-Étienne
Durée : 4-6 mois
Contact : antoine.zimmermann@emse.fr
Date limite de publication : 2025-03-15

Contexte :
Les grandeurs physiques constituent une part importante de ce qui est représenté dans les données scientifiques, les données médicales, les données industrielles, les données ouvertes et, dans une certaine mesure, diverses données privées.

Qu’il s’agisse de distances, de vitesses, de charges utiles dans les transports, de concentrations, de masses, de moles en chimie, de puissances, d’intensités, de tensions dans le secteur de l’énergie, de dimensions de meubles, de poids, de tailles de personnes, de durées, et bien d’autres encore dans le domaine de la santé, il est nécessaire de représenter les grandeurs physiques, de les stocker, de les traiter et de les échanger entre systèmes d’information, potentiellement à l’échelle mondiale, souvent sur l’internet et via le Web.

Sujet :
Dans ce stage, nous cherchons à définir précisément une manière de représenter sans ambiguïté les grandeurs physiques pour le Web des données. Plus précisément, nous étudierons les propositions faites pour encoder les grandeurs physiques dans le modèle de données standard du Web sémantique, RDF. Nous nous intéresserons particulièrement à l’utilisation d’un type de données dédié à cet encodage, probablement adapté de la proposition de Lefrançois & Zimmermann (2018) basée sur le standard UCUM.

Après avoir établi une définition rigoureuse du type de données (éventuellement de ses variantes, si pertinent), nous nous concentrerons sur l’implémentation d’un module capable de lire/écrire et de traiter les grandeurs physiques et leurs opérations au sein des API de manipulation de données RDF, pour la gestion, l’interrogation et le raisonnement sur des graphes de connaissances contenant des grandeurs physiques.

L’ambition est que, d’une part, la spécification devienne dans quelques années un standard de facto, avant peut-être de devenir un standard de jure ; et que, d’autre part, l’implémentation soit la référence permettant de comparer les niveaux de conformité d’autres implémentations futures.

Cette étude devrait conduire à la publication d’un article scientifique dans une revue scientifique à fort impact.

Détails du sujet et de comment candidater sur https://www.emse.fr/~zimmermann/Teaching/SemWeb/Internship/

Profil du candidat :
Master 2 en informatique voulant avoir une expérience en recherche, éventuellement dans le but de poursuivre des études doctorales.

Formation et compétences requises :
Compétences requises en Web sémantique (RDF, SPARQL, etc.).

Adresse d’emploi :
158 cours Fauriel
CS 62362
42023 Saint-Étienne Cedex 2
France