Etude pilote pour une modélisation des transitions agroécologiques par des techniques d’apprentissage

Offre en lien avec l’Action/le Réseau : MACLEAN/– — –

Laboratoire/Entreprise : IMBE Aix-Marseille University (Marseille, Campus S
Durée : 5 à 6 mois
Contact : laure.berti@ird.fr
Date limite de publication : 2022-12-31

Contexte :

Le stage se définit dans le cadre d’une collaboration entre l’IMBE (https://www.imbe.fr/), ESPACE-DEV (https://www.espace-dev.fr/) et l’Université Fédérale de Paraíba – Campus IV (https://www.biodiversidade.info/rafael-raimundo/index.php).

Le ou la candidat.e retenu travaillera sur des approches de modélisation pour découvrir des voies alternatives de transition durable en agroécologie pour les paysages du Nord-Est brésilien.

En particulier, le travail portera sur l’élaboration de modèles informatiques pour comprendre et faire des inférences et des prédictions sur les menaces à la biodiversité et les vulnérabilités sociales afin de (i) proposer des stratégies pour favoriser le développement de systèmes agroécologiques durables combinant conservation de la biodiversité et inclusion sociale, et (ii) fournir des recommandations pour des solutions adaptatives et une gouvernance face à la crise de la biodiversité et au changement climatique.

Sujet :
Le travail consiste en 4 objectifs :

1) Recueillir toutes les données déjà disponibles (identifiées en amont du stage par les équipes encadrantes) pour cartographier les services écosystémiques et d’autres indicateurs socio-économiques liés à l’état des agroécosystèmes dans le Nord-Est brésilien, à l’échelle régionale, et plus précisément dans l’état de Paraíba où un corridor agroécologique impliquant des fragments restant de la forêt atlantique a été proposé pour combiner restauration de la biodiversité et transitions agroécologiques à l’échelle du paysage.

2) Cartographier les changements (qui peuvent être des dégradations) entre différentes périodes ; cependant, nous nous intéressons surtout à la restauration observée suite à une transition vers l’agroécologie. Les données multi-sources seront intégrées et préparées pour être ensuite utilisées par les différentes approches de modélisation, notamment les modèles d’apprentissage.

3) Mener une première étude conjointe de la littérature :
– du point de vue agroécologique, à partir d’un corpus d’articles rassemblés par les équipes encadrantes, extraire des informations dans le but de quantifier l’effet des pratiques agroécologiques sur certaines variables de l’agroécosystème (séquestration du carbone, capacité de rétention d’eau du sol, vulnérabilité des cultures aux ravageurs et aux maladies, stabilité des rendements, etc.) et sur certains indicateurs socio-économiques (coûts, emplois requis, etc.) Cette synthèse sera comparée aux données recueillies en 1). Pour les effets qui semblent significatifs, quelques fonctions simples seront dérivées.

– du point de vue de l’Intelligence Artificielle, afin d’étudier l’état de l’art dans le domaine de l’apprentissage, notamment pour évaluer comment les modèles existants d’apprentissage par renforcement peuvent être appliqués à la gouvernance agroécologique ;

4) Développer un prototype en Python pour déterminer la durabilité des pratiques agroécologiques (espace d’actions, récompense en apprentissage par renforcement à partir des données collectées) sur des scénarios de stress simplifiés de changement climatique.

Profil du candidat :
PRÉREQUIS:
– Bonne expérience de la programmation en Python
– Connaissance des méthodes, outils et librairies en apprentissage automatique
– Formation en modélisation (et idéalement en agroécologie)

CANDIDATURE: Envoyer votre CV et lettre de motivation à laure.berti@ird.fr, sophie.gachet@imbe.fr, et alberte.bondeau@imbe.fr

Formation et compétences requises :
Etudiant.e de Master 2 en Informatique

Adresse d’emploi :
IMBE Aix-Marseille Université – Campus Étoile Faculté des Sciences St-Jérôme Case 421 Av Escadrille Normandie Niémen 13 397 Marseille cedex 20

Création d’une ontologie pour le domaine de la métabolomique

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Plateau de profilage métabolique et de metabolomiq
Durée : 6 mois
Contact : olivier.filangi@inrae.fr
Date limite de publication : 2023-01-26

Contexte :
INRAE est un institut de recherche public œuvrant pour un développement cohérent et durable de l’agriculture, l’alimentation et l’environnement. Pour répondre à des questions scientifiques de plus en plus complexes, il est souvent nécessaire de combiner des données provenant de banques de données publiques. La manière de représenter
ces données peut varier en fonction des communautés scientifiques ou des outils utilisés pour les produire par exemple. Dans ce cas, il est nécessaire de formaliser la manière de représenter et de
nommer les objets du domaine d’étude ainsi que leurs propriétés. Cette étape se concrétise généralement par la constitution de ressources sémantiques telles que les thésaurus et les ontologies.
L’infrastructure nationale de métabolomique MetaboHUB a pour objectif de fournir des outils technologiques de pointe et des services en métabolomique et fluxomique aux équipes de recherche académiques et à des partenaires industriels dans les domaines de la santé, de la nutrition, de l’agriculture, de l’environnement et des biotechnologies. Dans le cadre de sa nouvelle feuille de route, un des objectifs principaux est de favoriser une meilleure intégration des données et des services MetaboHUB au sein du consortium et au-delà. Les études actuelles sur le
métabolisme nécessitent l’utilisation d’un nombre croissant de ressources de données, complexes, produites ou stockées et au sein des plateformes de métabolomique et sur le Web.

le projet MetaSaurus réunit des experts en ingénierie des connaissances et en science des données du domaine de la métabolomique avec pour objectif de bâtir un modèle de connaissance adapté aux études
métabolomiques en s’appuyant sur les ontologies, thésaurus et vocabulaires contrôlés publiés (Thesaurus INRAE, Ontologies OBO Foundry / BioPortal).

Sujet :
Produire une ontologie adaptée au domaine de la métabolomique et les supports méthodologiques d’accompagnement de la démarche

A partir des spécifications du projet MetaSaurus et de la description des étapes d’intégration de données en métabolomique, le projet consistera à élaborer la première version d’une ontologie dédiée à la métabolomique. Vous étudierez les modalités de réutilisation des ressources sémantiques existantes en lien avec la maintenance de cette ontologie (mis en œuvre des principes OBO) et intégrerez l’environnement de gestion de l’ontologie dans une forge logicielle. L’implémentation de l’ontologie sera réaliser au format OWL. Cette démarche fera l’objet d’une proposition de méthodologie générique qui pourra être transposée à d’autres cas d’études.

Profil du candidat :
Étudiant de niveau master 2

Formation et compétences requises :
– Connaissances générales des standards du web sémantique (OWL/RDF) et des outils : Protégé, Github.
– Aptitude à la rédaction de documentation technique
– Maîtrise de l’anglais technique (lu)

Adresse d’emploi :
P2M2
Domaine de, La Motte Bat 305, 35650 Le Rheu

Document attaché : 202210171248_Stage_IngenierieConnaissance_Metabo.pdf

Ingénieur.e d’étude (H/F) Data Scientist ANR SUMM-RE

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire Parole et Langage
Durée : 12 mois
Contact : laurent.prevot@univ-amu.fr
Date limite de publication : 2022-10-28

Contexte :
L’objectif général du projet est d’utiliser les informations sémantiques riches fournies par la structure du discours pour améliorer les algorithmes de résumé automatique.

Un objectif central de SUMM-RE est de s’appuyer sur des travaux existants qui exploitent une faible supervision pour annoter automatiquement des ensembles de données pour la structure du discours en étendant ces méthodes au discours spontané et conversationnel.

Un deuxième objectif est de créer un corpus audio/vidéo de 100 heures d’interactions parlées, multipartites, de type réunion en français, qui sera utile aux chercheurs dans de nombreux domaines. Cet objectif est motivé non seulement par le manque général d’ensembles de données pour les tâches TAL en français, mais aussi par l’hypothèse centrale de SUMM-RE, selon laquelle les informations encodées dans les graphes de discours peuvent être exploitées pour améliorer le résumé automatique.

Sujet :
Le rôle de la personne recrutée sera de :

(i) Aider la curation des données brutes et des premières étapes de pré-traitement (détection parole / silence, transcription automatique) ;
(ii) préparer les données brutes en vue de leur diffusion à la communauté scientifique ;
(iii) Assurer la publication des données sur les entrepôts adaptés.

Profil du candidat :
Spécialiste dans l’analyse des données langagières.

Formation et compétences requises :
Master en Sciences des Données, Sciences du Langage, Sciences Cognitives

Compétences souhaitées:
– Expérience avec l’enregistrement et la gestion de données de parole et / ou comportementales ;
– Analyse d’erreurs / Annotation Manuelle / Evaluation des outils automatiques ;
– Data science (data wrangling, data viz…)

Compétences informatiques souhaitées:
– bash, python (notebooks)

Autres outils utilisés:
– SPPAS, praat, transcriber, elan

Adresse d’emploi :
5 avenue Pasteur, 13100 Aix-en-Provence

PostDoc/Research Engineer in NLP – Question-Answering and Chatbot project

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire Hubert Curien – Université de Saint-Et
Durée : 18 mois
Contact : Francois.Jacquenet@univ-st-etienne.fr
Date limite de publication : 2022-12-02

Contexte :
Dans le cadre du projet R&D Booster qaBot : Question Answering et Chatbot, réunissant les entreprises The QACompany, Wikit et le laboratoire Hubert Curien, nous recrutons un.e post-doc ou ingénieur.e de recherche pour une durée de 18 mois.

Les agents conversationnels (chatbots) sont de plus en plus utilisés dans tous les secteurs pour fournir une assistance rapide et bon marché aux utilisateurs. En adressant une question, l’utilisateur exprime son intention ; celle-ci est reconnue parmi une liste d’intentions du système qui donne alors sa réponse à l’utilisateur. A l’instar de tout système expert, cette technique a pour avantage de fournir des réponses précises car préparées. L’inconvénient est de nécessiter un temps important de conception et de maintenance des scénarios conversationnels avec les intentions associées. Les systèmes de questions-réponses (Question Answering, QA) sont apparus très récemment, en particulier pour interroger des bases de documents. L’utilisateur adresse sa question, et le système répond en sélectionnant un document et en y identifiant le texte répondant à la question. La technique des systèmes de QA nécessite moins d’effort de conception spécifique, mais elle nécessite actuellement des ressources d’entraînement très volumineuses (questions et réponses dans les documents) qui limite son adoption au-delà des très grosses bases telles que Wikipedia et pour l’anglais.

Le projet qaBot est axé sur le traitement automatique du langage naturel (NLP) et l’apprentissage profond (Deep Learning). Son objectif est d’amener sur le marché une approche mixte combinant la technologie de Chatbot – apportée par l’entreprise lyonnaise Wikit – et celle de Questions-Réponses sur des documents – élaborée par The QA Company. Le volet scientifique et académique du programme est sous la direction du laboratoire Hubert Curien (avec en tutelles principales l’Université de Saint-Étienne et le CNRS).

Sujet :
La personne recrutée devra s’investir principalement sur le soutien scientifique au projet sur les volets de l’entraînement des modèles, pour des données spécifiques et peu volumineuses (régimes few shots), l’étude et la synthèse des travaux récents, et l’implémentation/l’évaluation de celles-ci. Plus spécifiquement les verrous scientifiques identifiés sont :

* Concevoir une architecture neuronale performante avec des ensembles de données d’entraînement frugaux (few-shots) pour la tâche d’extraction de réponse à base de question (extractive question answering) sur des domaines spécifiques

* Définir des métriques pour évaluer les chatbots créés. Ces métriques seront utilisées pour évaluer les systèmes pendant la durée du projet.

* Adaptation rapide des modèles linguistiques existants sur des langues non anglaises.

* Adapter le système à des corpus de textes dans des formats spécifiques (comme par exemple pdf ou sites Web)

Profil du candidat :
Le/la candidat.e doit posséder des compétences solides en Apprentissage Automatique (conception de modèles, maîtrise des framework d’apprentissage deep tels que PyTorch/TensorFlow), mais aussi des compétences avancées en Python, une forte appétence pour les données textuelles, le question answering et les Modèles de Langues dits Larges (BERT, PaLM), ainsi que le surapprentissage et l’application de ces derniers (Notamment via HuggingFace).

Formation et compétences requises :
Doctorat ou Master spécialité Machine Learning et plus particulièrement Natural Language Processing

Adresse d’emploi :
Le lieu d’accueil est le laboratoire Hubert Curien, unité mixte de recherche (UMR 5516) de l’Université Jean Monnet de Saint-Etienne, du Centre National de la Recherche Scientifique (CNRS) et de l’Institut d’Optique Graduate School. Il est composé d’environ 90 chercheurs, professeurs et maîtres de conférences, 20 ingénieurs et personnels administratifs et 130 doctorants et post-doctorants. Nos activités de recherche sont organisées selon deux départements scientifiques : Optique, photonique et surfaces et Informatique, sécurité, image. L’équipe Data Intelligence, au sein de laquelle la personne recrutée travaillera, est spécialisée dans le domaine du Machine Learning

Le salaire est modulable en fonction de l’expérience du/de la candidat.e. La personne recrutée aura accès à un poste de travail avec un ordinateur permettant l’utilisation du cluster de calcul du laboratoire. Le début du contrat est prévu pour début Janvier 2023. Le laboratoire se situe sur le même campus que la société The QA Company, facilitant ainsi les échanges avec les chercheurs et le doctorant de la société impliqués dans le projet.

Pour candidater, merci d’envoyer à antoine.gourru@univ-st-etienne.fr et francois.jacquenet@univ-st-etienne.fr : un CV détaillé et une lettre de motivation, tout cela le plus rapidement possible.

Appel à communication – Atelier EXPLAIN’AI 2023 (2ème édition) @ EGC 2023, le 17 janvier 2023 à Lyon

Date : 2023-01-17
Lieu : Lyon

Appel à communication – Atelier EXPLAIN’AI 2023 (2ème édition)
— Soutenu par le GDR MADICS et l’association EGC—

Hébergé à la conférence EGC 2023 : https://egc2023.sciencesconf.org
— Le 17 janvier 2023 à Lyon —

+Présentation de l’atelier Explain’AI :
L’explicabilité dans le domaine de l’intelligence artificielle, et plus particulièrement en machine learning, est devenue aujourd’hui incontournable pour permettre à tout utilisateur de mieux prendre conscience et de mieux s’impliquer dans les décisions algorithmiques qui lui sont proposées.

Les utilisateurs de domaine (médecine, finance, assurance, chimie …) profitent désormais de systèmes permettant de lever, en partie, le voile sur le problème bien connu de « boite noire ». Ces systèmes posent cependant de nouveaux défis afin de toujours mieux considérer ces utilisateurs finaux. En particulier, se posent aujourd’hui des questions impliquant de nombreuses disciplines et portant par exemple : sur la représentation de ces explications, le besoin de les contextualiser ou d’interagir, le raisonnement , de mesurer leur fiabilité, de les rendre plus éthiques, conformes aux contraintes juridiques, de les adapter aux compétences et connaissance des utilisateurs.

Parmi les nouveaux défis cette année, on pourra s’intéresser plus particulièrement à :
– L’évaluation et la comparaison des méthodes d’explicabilité : quelle méthode choisir pour expliquer, dans quel cas, et pour quelle raison ?
– Comment expliquer un pipeline complet de traitement de données allant des prétraitements à l’exploitation des données ? Comment les choix réalisés impactent les explications qui peuvent être fournies ?

Cet atelier a pour ambition de rassembler largement tout chercheur investi dans la problématique de l’explicabilité ainsi que tout utilisateur concerné par sa pratique. Pour cette raison, il est co-organisé avec l’action HELP du GdR Madics.

L’objectif de cette demi-journée est de proposer un moment d’échange sur les intentions et avancées possibles liant données, utilisateurs et explications.

+Soumissions d’articles :
Deux types de soumissions sont possibles :
– articles courts : de 2 pages à 8 pages maximum
– articles longs : jusqu’à 12 pages

Les soumissions peuvent inclure tout travail de recherche original, applicatif, résumé de papiers internationaux, prise de position.
En particulier, les soumissions courtes de 2 pages seront tout à fait considérées afin de valoriser des nouveaux travaux ou apportant un cadre aux recherches et usages de l’explicabilité.
Les soumissions devront être soumises au format pdf exclusivement et devront impérativement utiliser le format RNTI.

Les articles doivent être soumis via Easy Chair à : https://easychair.org/conferences/?conf=explainai2023

+Dates importantes :
– Soumission des articles : 18 novembre 2022
– Notification aux auteurs : 04 décembre 2022
– Version finale des articles : 11 décembre 2022
– Journée de l’atelier : 17 janvier 2023

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Ingénieur d’étude : développer java full stack, refonte d’applications, amélioration de prototype (C++)

Offre en lien avec l’Action/le Réseau : – — –/Innovation

Laboratoire/Entreprise : LIS (Aix-Marseille université, UMR CNRS 7020), Ma
Durée : 6 mois
Contact : noel.novelli@lif.univ-mrs.fr
Date limite de publication : 2022-11-10

Contexte :
Les travaux seront menés dans le cadre du projet multipartenaire QualiHealth financé par l’ANR.

Sujet :
Le candidat participera à l’extension d’une plateforme de science des données dédiée à l’amélioration de la qualité des données de santé.

* Le candidat retenu travaillera au développement d’applications : refonte d’une application, implémentation de nouveau algorithmes sur des données de santé. Plus précisément, les principales missions sont :

— Refonte d’une application pour le profilage de la qualité des données (java);
— Refactoring de prototype (C++) ;
Intégration et interfaçage avec la plateforme de contrôle de la qualité des données de santé.

Profil du candidat :
BAC +5 en informatique
Expérience en développement java full stack et C++.

Formation et compétences requises :
BAC +5 en informatique
Compétences en programmation Python, C++ et java full stack
Compétences en campagne de tests.

Adresse d’emploi :
Faculté des Sciences de Luminy
LIS – Case 901
163 avenue de Luminy
F-13288 Marseille Cedex 9, France.

PostDoc : Apprentissage automatique, qualité des données et des connaissances en santé (LIS-Marseille-Luminy)

Offre en lien avec l’Action/le Réseau : DOING/– — –

Laboratoire/Entreprise : LIS (Aix-Marseille université, UMR CNRS 7020), Ma
Durée : 6 mois
Contact : noel.novelli@lis-lab.fr
Date limite de publication : 2022-10-10

Contexte :
Les travaux seront menés dans le cadre du projet multipartenaire QualiHealth financé par l’ANR.

Sujet :
Le candidat participera à l’extension d’une plateforme de science des données dédiée à l’amélioration de la qualité des données de santé.

* Le candidat retenu travaillera au développement, à la mise en œuvre et à l’application d’algorithmes et d’approches d’apprentissage automatique pour améliorer la qualité des données de santé. Plus précisément, les principales missions sont :
— Recherche sur le profilage de la qualité des données de soins de santé et le graphe de connaissances ;
— Concevoir des algorithmes d’apprentissage automatique pour découvrir et classer les règles de qualité des données, les dépendances et les contraintes ;
— Prototypage et test des solutions d’apprentissage des indicateurs de qualité des données et des contraintes de qualité ;
— Intégration et interfaçage avec la plateforme de contrôle de la qualité des données de santé.

Profil du candidat :
– Doctorat en informatique
– Expérience en apprentissage automatique et/ou en analyse de données complexes et/ou en gestion de données

Formation et compétences requises :
– Doctorat en informatique
– Compétences en programmation en Python
– Bonnes compétences en communication écrite et verbale en anglais

Adresse d’emploi :
Faculté des Sciences de Luminy
LIS – Case 901
163 avenue de Luminy
F-13288 Marseille Cedex 9, France.

L’institut ACSS de l’Université PSL recrute un ingénieur d’études en science des données pour les sciences sociales

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Université de Paris-Dauphine – PSL
Durée : 2 ans renouvelables
Contact : bruno.chavesferreira@dauphine.fr
Date limite de publication : 2022-10-10

Contexte :
Créé au sein de l’Université Paris Sciences et Lettres (PSL) et hébergé à Paris Dauphine, l’Institut « Applied Computational Social Sciences » a pour vocation de renforcer la recherche sur les grandes problématiques sociétales (cohésion politique et sociale, transition écologique, transformation numérique, efficacité et compétitivité économique) en articulant sciences des données et sciences sociales.

L’Institut collecte et traite à larges échelle des données hétérogènes tant pour permettre des avancées scientifiques que pour contribuer à éclairer le débat public et la décision. Il réunit sur une équipe pluridisciplinaire de chercheurs et s’appuie sur une équipe d’ingénieurs qui apportent leurs expertises pour constituer des bases de données originales et opérer des traitements complexes. Ces projets sont initiés et portés par des laboratoires du CNRS, de Dauphine, de l’ENS, de l’INSP, et des MinesParis-Tech. Les résultats des travaux ont vocation à être largement diffusés auprès de partenaires institutionnels et du monde économique.

Sujet :
Dans le cadre du développement de l’Institut ACSS, l’Université PSL recrute 1 ingénieur d’études (IE) en science des données. Il/elle sera chargé de mettre en œuvre des méthodes et outils de collecte et traitement de données issues de sources variées (Web, bases de données institutionnelles, archives, etc.). Il/elle aura également la responsabilité de veiller au respect des bonnes pratiques en matière de développement et de gestion du code et des données. Enfin, il/elle contribuera au développement de modèles statistiques ou d’apprentissage automatique (notamment dans le domaine du traitement automatisé de la langue naturelle).

Profil du candidat :
Titulaire d’un master informatique, maths-info ou d’un diplôme d’école d’ingénieur.

Compétences nécessaires :
Connaissance approfondie de l’écosystème Python (et/ou R) en traitement, analyse et visualisation de données.
Maîtrise des bases de données SQL.
Méthodologies de développement : tests unitaires, gestion de versions (GIT).
Compréhension des méthodes scientifiques des sciences humaines et sociales.

Compétences additionnelles souhaitées :
Connaissance des paradigmes principaux d’apprentissage automatique (régression, classification supervisée, clustering, visualisation, etc.).
Pratique des services web modernes (architecture REST, formats JSON, XML, etc.) et des expressions régulières.
Une expérience en traitement de la langue naturelle (NLP) et dans les bases de données NoSQL sera vivement appréciée.

Formation et compétences requises :
Compétences nécessaires :
Connaissance approfondie de l’écosystème Python (et/ou R) en traitement, analyse et visualisation de données.
Maîtrise des bases de données SQL.
Méthodologies de développement : tests unitaires, gestion de versions (GIT).
Compréhension des méthodes scientifiques des sciences humaines et sociales.

Compétences additionnelles souhaitées :
Connaissance des paradigmes principaux d’apprentissage automatique (régression, classification supervisée, clustering, visualisation, etc.).
Pratique des services web modernes (architecture REST, formats JSON, XML, etc.) et des expressions régulières.
Une expérience en traitement de la langue naturelle (NLP) et dans les bases de données NoSQL sera vivement appréciée.

Adresse d’emploi :
Université Paris Dauphine-PSL
Pl. du Maréchal de Lattre de Tassigny, 75016 Paris

Document attaché : 202210100643_ACSS_junior_data_scientist_en.pdf

INTEROPÉRABILITÉ SÉMANTIQUE DES PROCESSUS DE MODÉLISATION DE SYSTÈMES FERROVIAIRES

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIB / RAILENIUM
Durée : 36 mois
Contact : ana-maria.roxin@u-bourgogne.fr
Date limite de publication : 2022-11-06

Contexte :
Les travaux de recherche menés dans le cadre de ce projet concernent le domaine général des systèmes ferroviaires.

Ces systèmes se caractérisent par des besoins critiques en termes de sûreté de fonctionnement, de contraintes métier, technologiques et opérationnelles liées à l’environnement du système (Debbech et al., 2018) à intégrer dès la phase de conception. Les pratiques de modélisation de ces systèmes sont guidées principalement par le retour d’expérience (REX), les standards d’ingénierie système (IEEE, 2017) et les normes du domaine d’application (CENELEC, 2017).

Néanmoins, le processus de modélisation des systèmes ferroviaires repose sur l’interaction entre acteurs pluridisciplinaires, chacun avec son propre jargon métier et son interprétation des connaissances métier en lien. Par conséquent, les connaissances du domaine ont autant d’interprétations que d’acteurs impliqués dans les échanges.

Cela maintient l’ambiguïté sémantique entre acteurs et induit des erreurs de conception.

Par rapport à ces limites et inconvénients, le projet de recherche concerné par cette thèse vise à étudier une approche permettant une interprétation cohérente, complète, unique et univoque des connaissances impliquées dans la modélisation des systèmes ferroviaires, et notamment dans les échanges entre acteurs. Plus particulièrement, il s’agit d’étudier comment peut être spécifiée une interopérabilité sémantique (Roxin, 2018) entre les modèles conceptuels de données (CDM) ferroviaire, exprimées en UML (Unified Modeling Language), et l’architecture fonctionnelle, physique et logique du système.

Les contributions visées pour cette thèse concernent le domaine de la modélisation sémantique des données des systèmes ferroviaires et des contraintes métiers associés. Actuellement les approches de modélisation utilisées par ces acteurs (e.g. CapellaArcadia DSML, UML) ne sont pas interopérables d’un point de vue sémantique. Or cela conditionne la vérification des différentes phases du processus de modélisation ferroviaire, ainsi que du processus en lui-même.

Sujet :
Le verrou scientifique que nous souhaitons traiter dans cette thèse concerne la vérification du processus de modélisation ferroviaire (vérification d’erreurs, l’identification de propriétés dysfonctionnelles, etc.) par le biais d’approches sémantiques. Cette problématique se décline selon les 3 volets listés ci-dessous :

La conception et l’alignement de (méta-)modèles sémantiques – La construction d’ontologies est un procédé manuel long et fastidieux, car les domaines à modéliser sont parfois d’importantes sources de connaissances (et donc des concepts et des relations entre eux). De plus, le processus de construction d’ontologies nécessite le concours d’experts du domaine maîtrisant l’ensemble des connaissances à modéliser. Les travaux visés par cette thèse s’intéresseront à évaluer les modèles et les ontologies existantes, ainsi que déterminer si de nouveaux (méta-) modèles sémantiques doivent être construits,

L’adaptation sous forme de contraintes (règles) sémantiques de contraintes métier, technologiques et opérationnelles liées à l’environnement du système ferroviaire,

La conception de mécanismes de requête optimisés pouvant s’appliquer à(aux) ontologie(s) construites et alignées – Le projet de recherche vise l’automatisation des procédures de vérification des modélisations de systèmes ferroviaires, selon les besoins exprimés, notamment en termes de sûreté de fonctionnement. Cet objectif passe notamment par la formalisation d’un ensemble de connaissances de schémas de modèles et contraintes. Celles-ciseront adaptées en contraintes logiques par rapport à la base de connaissances constituée afin de vérifier le respect ou non de la contrainte associée.

Les résultats et les contributions de cette thèse seront validés par des ces d’études du domaine ferroviaire dans le but de répondre aux défis industriels du processus de développement de systèmes ferroviaires.

Profil du candidat :
Diplômé d’un master universitaire ou diplôme d’ingénieur, vous souhaitez poursuivre vers un doctorat dans le milieu ferroviaire.

Vous disposez de connaissances en ingénierie des connaissances (web sémantique, ontologies) et ingénierie système dirigée par les modèles (MBSE).

Formation et compétences requises :
Des compétences en programmation sont appréciées.

Des connaissances du domaine ferroviaire et du traitement de données sont un véritable plus.

Vous disposez d’un véritable intérêt pour la recherche et la production scientifique,

Vous êtes curieux et avez le sens de l’initiative.

Un bon niveau en anglais (lu et écrit) est exigé.

Expérience dans le poste : Minimum 1 an

Adresse d’emploi :
Poste basé à Villeneuve d’Ascq

Document attaché : 202210070941_[22-40] Doctorant – Interopérabilité sémantique des processus de modélisation de systèmes ferroviaires _ RAILENIUM.pdf

Call for Papers – Int.Symposium on Intelligent Data Analysis (IDA) 2023, Louvain-la-Neuve, Belgium

Date : 2023-04-12 => 2022-11-30
Lieu : Louvain-la-Neuve, Belgium

The 21st International Symposium on Intelligent Data Analysis will take place April 12-14, 2023 in Louvain-la-Neuve, Belgium.

Symposium on Intelligent Data Analysis (IDA 2023)

Authors are invited to submit original contributions on the topic of intelligent data analysis. IDA’s mission is to promote ideas over performance. Thus, while each contribution should contain some theoretical or empirical evaluation, exhaustive evaluation is not required as long as a convincing and solid motivation is given.

Submissions will undergo a single-blind review process (author identities are known to reviewers). The conventional reviewing process, which favors incremental advances on established work, can discourage the kinds of papers that IDA 2023 aims to publish. The reviewing process will address this issue explicitly: referees will evaluate papers on the basis of novelty, technical quality, potential impact, and clarity. Furthermore, each submission will be reviewed by one of the senior program committee members. Any paper for which an SPC makes a convincing argument about how it addresses the symposium’s goals will be accepted independent of the overall review score.

All accepted paper contributions will be published in the Lecture Notes in Computer Science series by Springer-Verlag. Proceedings from previous IDA symposia have appeared in the same series over the last two decades.

It is required that at least one author of each accepted paper registers for the conference and presents and discusses the contribution at the conference.

*Formatting instructions*

Contributions, written in English, must be formatted according to the guidelines of the Lecture Notes of Computer Science (LNCS) series by Springer-Verlag, which are available together with templates here: https://www.springer.com/gp/computer-science/lncs/conference-proceedings-guidelines. We strongly recommend using the LNCS template for LaTeX. The page limit for any contribution, including figures, title pages, references, and appendices, is 10-12 pages in LNCS format. Submission of the camera-ready version of the paper has to include the authors’ consent to publish on the above Springer LNCS website.

Authors may not submit any paper which is under review elsewhere or which has been accepted for publication in a journal or another conference; neither will they submit their papers elsewhere during the review period of IDA 2023.

*Submission*

Papers must be submitted electronically, in PDF format, via the IDA 2023 EasyChair submission website (https://easychair.org/conferences/?conf=ida2023).

*Important dates*

Paper submission deadline: November 15, 2022
Notification of acceptance: January 20, 2023
All dates are specified as 23:59:59 SST (Standard Samoa Time / Anywhere on Earth)

*Additional information*

This call for papers and all additional information can be found on https://ida2023.org/regular-paper-track/

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.