CHERCHEUR-Postdoc en apprentissage statistique non supervisé (H/F)

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIPN, UMR CNRS 7030
Durée : 18 mois
Contact : mustapha.lebbah@univ-paris13.fr
Date limite de publication : 2022-01-31

Contexte :
https://bit.ly/3s1fB6X

Sujet :
https://bit.ly/3s1fB6X

Profil du candidat :
PhD en apprentissage statistique ou en informatique (data science).
Solide bases en statistique (modèle de mélange) et en informatique.
Maîtrise de la programmation en Python, Java/Scala
Connaissances de Git, Docker, Environnements Cloud, Calcul distribué sur des clusters
Connaissances en génie logiciel
Esprit de synthèse.
Créativité, force de proposition.

Formation et compétences requises :
https://bit.ly/3s1fB6X

Adresse d’emploi :
LIPN, UMR CNRS 7030
Université Paris XIII – USPN

Partitionnement sous contrainte de similarité

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIAS, ISAE-ENSMA
Durée : 3 ans
Contact : brice.chardin@ensma.fr
Date limite de publication : 2022-01-31

Contexte :
SRD est un gestionnaire de réseau de distribution d’électricité chargé de gérer, exploiter, entretenir et développer un réseau électrique couvrant 90% de la Vienne. Pour l’optimisation de son réseau et la planification d’investissements, SRD cherche à modéliser le comportement des consommateurs et producteurs qu’il dessert.
Bien que cette modélisation soit principalement basée sur les valeurs historiques de puissance transitant sur le réseau, SRD s’intéresse plus particulièrement à son pouvoir prédictif, c’est-à-dire sa capacité à capturer le comportement futur des éléments considérés.

Sujet :
L’objectif scientifique principal de cette thèse est d’élaborer des techniques de classification permettant d’identifier des groupes d’éléments avec une garantie de dissimilarité maximale entre deux éléments d’un même groupe, et de positionner ce type d’approche par rapport aux algorithmes de partitionnement existants, notamment les approches par densité.
Les techniques considérées ici sont basées sur un partitionnement sous contrainte, et plus spécifiquement sous contrainte de dissmilarité intra-cluster maximale. Ce type de partitionnement garantit une certaine proximité entre les membres d’un groupe et le représentant désigné in fine pour les remplacer.

Profil du candidat :
Le candidat devra posséder des connaissances en développement logiciel, systèmes d’information, statistiques et analyse de données.
Un bon niveau en français et en anglais est également nécessaire.

Formation et compétences requises :
Le candidat devra être titulaire d’un master en informatique ou d’un diplôme d’ingénieur.

Adresse d’emploi :
ISAE-ENSMA, 1 avenue Clément Ader, 86360 Chasseneuil-du-Poitou

Document attaché : 202112151748_Sujet_labcom-alienor.pdf

Développement d’un réseau de neurones permettant la caractérisation acoustique du transport sédiment

Offre en lien avec l’Action/le Réseau : – — –/Innovation

Laboratoire/Entreprise : cerege
Durée : 6 mois
Contact : gassier@cerege.fr
Date limite de publication : 2022-02-28

Contexte :
L’estimation du débit de mise en mouvement des particules ainsi que du flux sédimentaire par fractions granulométriques (taille)
transportées dans les cours d’eau sont des enjeux cruciaux pour leur gestion, que ce soit pour des études scientifiques, des projets de
restauration, de prévention des crues, ou des travaux opérationnels. Devant le manque de méthode efficace, la communauté scientifique
et opérationnelle s’intéresse aux approches par mesures indirectes, ici par acoustiques passive, qui consiste à mesurer le son produit par
le déplacement des sédiments dans une rivière en y immergeant des hydrophones afin d’en évaluer les caractéristiques.

Sujet :
Au sein du Centre de Recherche et d’Enseignement de Géosciences de l’Environnement (CEREGE), nous proposons à un
étudiant, lors de son stage de fin d’études de Master ou d’ingénieur, de développer un réseau de neurones permettant de
caractériser le flux sédimentaire (masse par unité de temps) transporté dans un cours d’eau à partir de la pression acoustique
générée par ce dernier et mesurée par des hydrophones.

Profil du candidat :
Master 2 ou école d’ingénieur.

Formation et compétences requises :
Le stagiaire : Deep learning, réseau de neurones,
python, Jupyter, Linux, TensorFlow, keras, Traitement du signal acoustique.

Adresse d’emploi :
CEREGE
TECHNOPOLE ENVIRONNEMENT ARBOIS-MEDITERRANEE BP80
13545 AIX en PROVENCE, CEDEX 04, FRANCE
Tél. (+33) (0)4 13 94 91 00

Document attaché : 202112151536_Sujet_Stage_CEREGE.pdf

Post-Doc position available at LS2N, Nantes, France with mobility at NII Tokyo, Japan

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LS2N, Nantes, France with mobility at NII Tokyo, J
Durée : 12 mois
Contact : Fabrice.Guillet@univ-nantes.fr
Date limite de publication : 2022-02-28

Contexte :
Title : Combining graph embedding and topic modelling for ontology/KG learning from large scale data

Key words : Topic modelling, Knowledge graph learning, Ontology learning, Graph embedding, Deep learning

Description. Ontology learning from the web data is a major challenging topic within the semantic web field and many approaches have been developed to tackle it. However, due to sparsity and heterogeneity of data, they lack to provide good quality results with a high semantical relevance for humans. The post-doc work aims to define a new approach for ontology learning/knowledge graph learning by incorporating embedded knowledge graphs in a clustering technique (topic modelling) dealing better with the sparsity and the heterogeneity of texts available in the Web and the semantical relevance of the results. The research domain of this post-doc position is model learning, linked data and graph embedding for ontology/knowledge graph learning from texts. Model learning/Topic modelling is one of the area expertise of the DUKe team (Data User Knowledge) of LS2N, one of the France’s leading public research labs in digital sciences. Linked data, graph building from texts and knowledge graph embedding are fields of expertise of the Japanese Ichise Laboratory from the National Institute of Informatics (NII), one of the leading research institute in Japan.

Duration : 12 months from (1 January 2022 -31 December 2022) including a mobility of 3 months in Japan .

Localization : Polytech Nantes, France , Ichise Laboratory, Tokyo Japan

Salary: 2900€ gross monthly + mobility expenses in Japan, during three months, about 350.000 yens / month.

Application: Candidates should have a PhD in computer science or applied mathematics, with strong experience in machine learning and related coding ecosystems in python. A background in semantic web and probability/statistics would be a plus.
Applicants should send a full CV including a complete list of publications and completed projects, a cover letter, and letters of recommendation or the names of two people who have worked with them.

Contact: Mounira Harzallah (Mounira.harzallah@univ-nantes.fr, Fabrice Guillet fabrice.guillet@univ-nantes.fr), DUKe, LS2N, France

Sujet :
Description. Ontology learning from the web data is a major challenging topic within the semantic web field and many approaches have been developed to tackle it. However, due to sparsity and heterogeneity of data, they lack to provide good quality results with a high semantical relevance for humans. The post-doc work aims to define a new approach for ontology learning/knowledge graph learning by incorporating embedded knowledge graphs in a clustering technique (topic modelling) dealing better with the sparsity and the heterogeneity of texts available in the Web and the semantical relevance of the results. The research domain of this post-doc position is model learning, linked data and graph embedding for ontology/knowledge graph learning from texts. Model learning/Topic modelling is one of the area expertise of the DUKe team (Data User Knowledge) of LS2N, one of the France’s leading public research labs in digital sciences. Linked data, graph building from texts and knowledge graph embedding are fields of expertise of the Japanese Ichise Laboratory from the National Institute of Informatics (NII), one of the leading research institute in Japan.

Duration : 12 months from (1 January 2022 -31 December 2022) including a mobility of 3 months in Japan .

Localization : Polytech Nantes, France , Ichise Laboratory, Tokyo Japan

Salary: 2900€ gross monthly + mobility expenses in Japan, during three months, about 350.000 yens / month.

Profil du candidat :
Application: Candidates should have a PhD in computer science or applied mathematics, with strong experience in machine learning and related coding ecosystems in python. A background in semantic web and probability/statistics would be a plus.
Applicants should send a full CV including a complete list of publications and completed projects, a cover letter, and letters of recommendation or the names of two people who have worked with them.

Contact: Mounira Harzallah (Mounira.harzallah@univ-nantes.fr, Fabrice Guillet fabrice.guillet@univ-nantes.fr), DUKe, LS2N, France

Formation et compétences requises :
see above

Adresse d’emploi :
see above

Software Research Engineer in Astronomy (M/F)

Offre en lien avec l’Action/le Réseau : SimpleText/– — –

Laboratoire/Entreprise : Observatoire Astronomique de Strasbourg UMR 7550
Durée : 12 mois
Contact : gilles.landais@astro.unistra.fr
Date limite de publication : 2022-01-31

Contexte :
L’annonce du poste est publiée via les offres d’emploi du CNRS – https://bit.ly/3IskUCz

Poste de développeur au Centre de données de Strasbourg (CDS) sur le service de catalogue VizieR (https://vizier.cds.unistra.fr).

Le CDS est hébergé dans L’Observatoire Astronomique de Strasbourg,
il regroupe une trentaine de personnes : des astronomes, des documentalistes et des ingénieurs qui fournissent des services dont les données sont libre d’accès et sont largement utilisées dans la communauté (https://cds.unistra.fr/).

————————————————————————————————
(english version)
The job announcement is published via CNRS job offers – https://bit.ly/3IskUCz

Developer position at the Strasbourg Data Centre (CDS) on the VizieR catalogue service (https://vizier.cds.unistra.fr).

The CDS is hosted in the Observatoire Astronomique de Strasbourg,
It gathers about 38 people: astronomers, documentalists and engineers who provide services whose data are freely accessible and widely used in the community (https://cds.unistra.fr/).

Sujet :
Le Centre de Données astronomiques de Strasbourg (CDS) recherche un-e développeur(euse) pour faire évoluer le Système d’Information de publication des données en astronomie. Il/elle viendra renforcer l’équipe d’ingénieur(e)s informaticien(ne)s en charge du service Vizier pour faire évoluer les workflows qui mettent en base de données les tables publiées dans les journaux ou missions spatiales. Les développements incluront l’évolution de l’indexation des données temporelles et spatiales.

———————————————————————————————————-
(english version)
The Astronomy Data Centre of Strasbourg (CDS) is looking for a software engineer to work on the Astronomy Data Publication Information System. He/she will reinforce the team of computer engineers in charge of the Vizier service in order to develop the workflows that put in the database the tables published in the journals or space missions. The developments will include the evolution of the system for the indexing of temporal and spatial data.

Profil du candidat :
Nous recherchons un développeur de logiciels pour travailler sur le service de catalogue VizieR qui est utilisé par les astronomes du monde entier.

————————————————————————————————————
(english version)
We are looking for a software developer to work on the VizieR catalogue service which is used by astronomers all over the world.

Formation et compétences requises :
– Maîtrise des développements C, Python en environnement Linux
– Bonne Connaissances en bases de données relationnelles (PostgreSQL) et du langage SQL
– La connaissance d’un autre langage comme Java ou Rust serait un plus
– Une expérience de création d’un analyseur syntaxique serait utile et appréciée
– Anglais niveau B1 minimum
– Capacité à présenter son travail (collaborations techniques en anglais dans le cadre de projets internationaux)
– Autonomie, qualités relationnelles, sens de l’organisation, capacités d’adaptation et des aptitudes à travailler en interaction avec une ou plusieurs équipes
– Le/la candidat(e) aura un diplôme d’école d’ingénieur (ou équivalent)

———————————————————————————————————-
(english version)
– Expertise in C or Python developments in Linux environment
– Good knowledge of relational databases (PostgreSQL) and SQL language
– Knowledge of another language such as Java or Rust would be a plus
– Experience in creating a parser would be useful and appreciated
– English level B1 minimum
– Ability to present your work (technical collaborations in English in the context of international projects)
– Autonomy, interpersonal skills, organisational skills, adaptability and ability to work in interaction with one or more teams
– The candidate should have a diploma from an engineering school (or equivalent)

Adresse d’emploi :
Observatoire Astronomique de Strasbourg
11, rue de l’université
67000 Strasbourg

Machine Learning in Computational Fluid Dynamics

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Sorbonne Universite – Equipe Machine Learning and
Durée : 6 mois
Contact : patrick.gallinari@sorbonne-universite.fr
Date limite de publication : 2022-02-28

Contexte :
Numerical simulation of fluids plays an essential role in modeling complex physical phenomena in domains ranging from climate to aerodynamics. Fluid flows are well described by Navier-Stokes equations, but solving these equations at all scales remains extremely complex in many situations and only an averaged solution supplemented by a turbulence model is simulated in practice (Xiao and Cinnella, 2019). The increased availability of large amounts of high fidelity data and the recent development and deployment of powerful machine learning methods has motivated a surge of recent work for using machine learning in the context of computational fluid dynamics (CFD) (Durasaimy et al., 2019). Combining powerful statistical techniques and model-based methods leads to an entirely new perspective for modeling physics phenomena (Willard 2020). From the machine learning (ML) side, modeling complex dynamical systems and combining model-based and data-based approaches is the topic of active new research directions. This is then the context of this project, and our aim is to develop the interplay between Deep Learning (DL) and CFD in order to improve turbulence modeling and to challenge state of the art ML techniques.

Sujet :
Combining CFD models and Deep Learning

Our objective is to improve traditional CFD models, both in terms of complexity and of accuracy of the predictions, with the addition of ML components. Recent progresses, and the generalized use of automatic differentiation both for differentiable solvers and DL algorithms have paved the road to the integration of DL techniques and ODE/PDE solvers. In the ML community, a starting point for such investigations was the Neural ODE paper (Chen 2018) that promoted the use of ODE solvers for ML problems. We advocate for this research the use of DL modules for complementing CFD solvers, in the spirit of (Yin 2021) who introduced a principled approach however still limited to basic PDEs. In our new context, our final objective is to analyze how to model unclosed terms in the Reynolds-Averaged Navier-Stokes (RANS) equations. In order to simplify the problem, for the internship, the approach will be developed for a scalar surrogate of the Navier-Stokes equations, namely, the nonlinear Burgers’ equation, which has been widely used in the literature as a simplified ansatz for Navier-Stokes The whole system will be trained end to end with the DL modules and the numerical solvers using high-fidelity data.

In order to be useful for CFD applications a learned model must accurately simulate flows outside of the training distribution: operational conditions and environment may vary according to different physical factors thus requiring models to extrapolate to these new conditions. For providing such capabilities, we will adopt a new perspective by considering learning dynamical models from multiple environments and analyze the ability of this framework to extrapolate to new conditions.

Profil du candidat :
Master or engineering degree in engineering, computer science or applied mathematics.

Formation et compétences requises :
The candidate should have a strong scientific background with good technical skills in programming.

Adresse d’emploi :
Machine Learning and Information Access team – MLIA – https://mlia.lip6.fr, Sorbonne University, 75005 Paris, Fr

Document attaché : 202112141459_2021-12-MLIA-JLRA-Machine-Learning-Computational-Fluid-Dynamics.pdf

Scalabilité horizontale dans les pipelines de données

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : SAP / LIP6 Sorbonne Université
Durée : 6 Mois
Contact : hubert.naacke@lip6.fr
Date limite de publication : 2022-01-07

Contexte :
Aujourd’hui des entreprises gèrent leurs données avec une grande variété d’applications développées indépendamment. Or ces applications n’ont pas été conçues pour communiquer entre elles et il n’est pas envisagé de les migrer vers un système commun. Néanmoins, le besoin est fort de Concevoir des nouveaux services de gestion et d’analyse de données qui valoriseront la donnée présente. Cela pose le problème de faire coopérer efficacement des applications, en particulier celles qui gèrent des grands volumes de données. Ainsi, pour faciliter la circulation de données entre les applications et définir des nouveaux services intégrant des données massives, des pipelines de données sont conçus.

Un pipeline de données [JHM04] est une séquence ou un graphe d’opérations sur des données. Une opération peut simplement déplacer des données ou effectuer des traitements complexes incluant la collecte de données de plusieurs sources, leur transformation, la génération de modèles par apprentissage et le stockage dans plusieurs destinations. En pratique, un pipeline peut contenir des centaines d’opérations et il peut évoluer à plusieurs reprises en étant complété avec des nouvelles opérations ou de nouvelles données. Ainsi, face au nombre croissant de pipelines à concevoir et déployer, il est crucial de disposer :

1. d’un langage de haut niveau pour définir des pipelines,

2. d’outils automatiques pour déployer et contrôler l’exécution d’un pipeline.

Les avancées technologiques récentes en matière de virtualisation et de conteneurisation telles que Kubernetes [Pou21] permettent de configurer, en langage Yaml, le déploiement d’un ensemble de tâches afin d’automatiser leur déploiement. Toutefois, Yaml décrit les objets déployés (services, pod, conteneur) mais manque d’abstraction pour décrire des pipelines de données de manière suffisamment déclarative et extensible. C’est pourquoi, la société SAP a conçu un nouveau langage de définition de pipeline qui décrit l’enchainement des opérations (tâches) en spécifiant les échanges de données et la configuration de l’environnement d’exécution (techniques de virtualisation et conteneurisation).

[Ber14] David Bernstein. Containers and cloud: From lxc to docker to kubernetes. IEEE Cloud Computing, 1(3):81–84, 2014.

[JHM04] Wesley M Johnston, JR Paul Hanna, and Richard J Millar. Advances in dataflow programming languages. ACM computing surveys (CSUR), 36(1):1–34, 2004.

[Pou21] Nigel Poulton. The Kubernetes Book. Amazon, 2021.

Sujet :
L’objectif de ce stage est de proposer une méthode pour instancier et déployer automatiquement et efficacement des pipelines de données. Cela soulève plusieurs défis scientifiques et techniques :

– Déploiement automatique : chaque opération du pipeline correspond à un programme (Python, node.JS, …) ou à un appel vers une API externe (par exemple, job Spark) qui est déployé en utilisant une image/containeur Docker [Ber14] adaptée. A partir de la description d’un pipeline, il s’agit de le déployer sur une plateforme Kubernetes dans le cloud (par exemple Google Kubernetes Engine ou Elastic Kubernetes Service d’Amazon).

– La parallélisation des opérations dans plusieurs pods permet d’augmenter la scalabilité horizontale du pipeline, mais nécessite également la définition d’opérateurs de partitionnement de données (par clé ou fenêtrage) pour répartir les traitements sur des partitions indépendantes.

– Le regroupement de plusieurs opérations dans le même pod: ceci permet réduire les échanges de données entre pods qui sont remplacées par des communications moins couteuses entre les threads dans le même pod.

Travail à réaliser: Le ou la stagiaire abordera en priorité le défi de la parallélisation et traitera les points suivants :

1. Prise en main de l’environnement d’exécution. Etat de l’art sur les services Kubernetes, le déploiement automatique de pods et la génération d’images docker.

2. Parallélisation d’une opération : Implanter différents opérateurs de partitionnement adaptés à la distribution de données ordonnées (séquences, flux) et non-ordonnées (ensembles).

3. Traduire la spécification d’un pipeline, contenant des opérations parallélisées, en un déploiement yaml qui doit répliquer les pods s’exécutant en parallèle et contenir des nouveaux pods dédiés au
partitionnement des données.

4. Définir des use-cases et conduire des expérimentations pour mesurer les performances obtenues.

5. Selon le temps disponible le ou la stagiaire pourra étudier l’optimisation du pipeline en combinant les stratégies de regroupement d’opérations dans un même pod et de parallélisation d’un pod. En particulier, ces stratégies sont limitées par un certain nombre de contraintes liées aux types d’images dockers disponibles et au protocole de communication entre pods. Il s’agit de proposer une méthode pour déterminer quelles sont les opérations à regrouper et quelles sont celles à paralléliser afin de maximiser les performances d’un pipeline.

Une perspective intéressante est de répondre aux besoins d’élasticité dans des scénarios sur des flux de données dynamiques (avec des changements de fréquence et des “bursts”). Il s’agit d’étudier l’implantation de stratégies dynamiques qui prennent un compte ces changements pour adapter le nombre de pods déployés aux besoins. Ceci est particulièrement important dans les déploiements sur des services cloud qui impliquent des coûts financiers.

Profil du candidat :
On cherche un étudiant ou une étudiante motivé(e) avec une bonne expérience en programmation (Python, Java) et en bases de données (optimisation, big data). Des connaissances techniques sur Docker/Kubernetes et sur les pipelines de données sont un atout.

Formation et compétences requises :
M2 Informatique ou équivalent

Adresse d’emploi :
SAP-France, Levallois-Perret

LIP/Sorbonne Université, Paris

Document attaché : 202112141329_Stage_LIP6_SAP_2021(1).pdf

Etude de l’espace des caractéristiques dans les auto-encodeurs variationnels (Imagerie médicale))

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LITIS (Rouen)
Durée : 6 mois
Contact : jerome.lapuyade-lahorgue@univ-rouen.fr
Date limite de publication : 2022-02-01

Contexte :
Un auto-encodeur variationnel est un type de réseau de neurones utilisé généralement pour la reconstruction de données et ainsi extraire les caractéristiques principales des données. Celui-ci prend en entrée un vecteur ou matrice de données x, l’encode sous forme d’un vecteur z de caractéristiques et décode la sortie à partir de z. Cette sortie doit être la plus fidèle possible à l’entrée. Les caractéristiques obtenues sont des valeurs évoluant dans un espace de dimension plus faible que celle des données brutes à analyser. Ainsi, un auto-encodeur peut être considéré comme un algorithme de réduction de dimension.

Sujet :
L’objectif principal du projet est de proposer des distributions a priori pour les caractéristiques alternatives à la distribution normale habituellement utilisée. Ces lois statistiques seront des distributions sur variétés différentielles. Les variétés différentielles pourront être représentées, via leur discrétisation, comme des graphes dans lesquels les opérateurs classiques de gradient et laplacien, ainsi que la notion de géodésique peuvent être étendus. Les auto-encodeurs ainsi implémentés pourront également être utilisés dans les réseaux multitâches actuellement d´enveloppés dans notre équipe et appliqués pour la classification de cancers et la prédiction de l’évolution d’un cancer après un traitement à partir des images TDM/TEP ou IRM.

Profil du candidat :
L’étudiant(e) devra être à l’aise en programmation avec le langage Python. Il/elle devra apprécier la démarche scientifique, le travail en équipe. Une bonne culture dans le domaine de l’apprentissage machine et/ou de l’imagerie sera appréciée.

Formation et compétences requises :
Étudiant(e) en dernière année de Master en Informatique, Science des Données, Traitement et Analyse d’Images.

Compétences en analyse statistique, apprentissage machine, programmation python.

Adresse d’emploi :
LITIS, Université de Rouen, 76800 Saint-Étienne-du-Rouvray

Postdoc – Deep learning for brain imaging

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ICM – Institut du Cerveau (CNRS/Inria/Inserm/Sorbo
Durée : 18 mois
Contact : olivier.colliot@sorbonne-universite.fr
Date limite de publication : 2022-06-01

Contexte :
You will work within the ARAMIS lab (www.aramislab.fr) at the Paris Brain Institute. The institute is ideally located at the heart of the Pitié-Salpêtrière hospital, downtown Paris.
The ARAMIS lab, which is also part of Inria (the French National Institute for Research in Computer Science and Applied Mathematics), is dedicated to the development of new computational approaches for the analysis of large neuroimaging and clinical data sets. With about 35 people, the lab has a multidisciplinary composition, bringing together researchers in machine learning and statistics and medical doctors (neurologists, neuroradiologists).

Sujet :
Working within the ARAMIS team, the postdoc’s mission will be to develop research on the topic of deep learning for brain imaging. More specifically, the research project can tackle one of the following subjects or their combination:
– self-supervised machine learning
– machine learning for prognosis and diagnosis
– integration of medical image analysis and natural language processing
– reproducibility of machine learning systems
– segmentation of brain structures and pathologies
– applications to brain tumours, Parkinson’s disease and other neurological diseases
He/she will be able to contribute to the training and co-supervision of students (Master, PhD).

Profil du candidat :
– Research experience in Deep Learning
– Experience in the field of medical imaging would be a plus but is not mandatory
– Genuine interest for applications in medicine
– Good writing skills
– Good communication skills

Formation et compétences requises :
– PhD in computer science, electrical engineering or a related field

Adresse d’emploi :
Brain Institute, ARAMIS Team, Pitié Salpêtrière Hospital, 47 Bd. de l’hôpital, 75013 Paris

Navigation dans des règles d’implication extraites de connaissances agroécologiques en santé animale

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIRMM, CNRS et Univ Montpellier
Durée : 6 mois
Contact : marianne.huchard@lirmm.fr
Date limite de publication : 2022-06-01

Contexte :
Le stage est financé par l’institut de convergence #Digitag (https://www.hdigitag.fr/fr/) et pourra être complété par un mois de CDD.

Sujet :
Pour un producteur agricole, implémenter les pratiques agroécologiques au sein de son exploitation lui impose de disposer d’un système d’aide à la décision (SAD) pour les identifier, ce SAD comportant une base de connaissances suffisamment étoffée et un système de navigation adapté à ses besoins. La base de connaissances Knomana, par exemple, rassemble plus de 46000 descriptions d’usage de plantes à effet pesticide et antibiotique en santé végétale, animale et humaine (Silvie et al. 2021). La plateforme de visualisation RCAviz (https://info-demo.lirmm.fr/rcaviz/) permet de naviguer dans ce type de base de connaissances. Basé sur l’Analyse de Concepts Relationnels (RCA), une méthode de classification de données relationnelles, RCAviz permet de naviguer dans des structures conceptuelles de type graphe et d’identifier facilement, par exemple, une plante locale susceptible de protéger une culture contre un bioagresseur invasif, ou des plantes en partie équivalentes pour un problème sanitaire donné.
Outre les structures conceptuelles, RCA propose de représenter les connaissances sous forme de règles d’implication, un formalisme qui, proche du langage naturel, est bien adapté aux utilisateurs du monde rural (e.g. « F_Meliaceae => no-food » : les plantes de la famillle Meliaceae ne sont pas consommées). Pour autant, identifier la règle la mieux appropriée dans un grand ensemble de règles est difficile.

L’objectif du stage est de développer un prototype logiciel de visualisation de connaissances, exprimées sous forme de règles d’implications produites par la librairie FCA4J (http://www.lirmm.fr/fca4j). Cette application présentera les règles en regard de mesures d’intérêt ou d’après une formulation symbolique donnée par l’utilisateur, e.g. les règles relatives à un certain ensemble de conditions, pour les exploiter facilement.

Profil du candidat :
Etudiant de Master 2 (informatique ou bioinformatique) avec un intérêt pour l’ingénierie des connaissances, l’analyse visuelle (visual analytics), et à trouver des solutions alternatives aux pesticides et antibiotiques de synthèse pour l’agriculture biologique.

Formation et compétences requises :
Compétences solides en programmation d’application web (notamment javascript) et connaissances en ingénierie des connaissances.

Adresse d’emploi :
LIRMM, Univ. Montpellier, CNRS
161 rue Ada
35095 Montpellier Cedex 5
France

Document attaché : 202112111817_SujetDigitag2022_diffusion.pdf