Présentation Générale

 



           
Huitième édition du Symposium MaDICS (les inscriptions sont ouvertes !)

Ce rendez-vous annuel rassemble la communauté MaDICS afin de mettre en lumière les avancées récentes en sciences des données, à travers un programme scientifique riche comprenant des conférences invitées (keynotes), des ateliers thématiques, des tables rondes et des sessions de posters.
Ces temps forts favorisent des échanges scientifiques à la fois stimulants et conviviaux.

Une Session Poster sera spécialement consacrée aux jeunes chercheuses et jeunes chercheurs souhaitant présenter leurs travaux en analyse et gestion de données et dans les domaines interdisciplinaires autour de la Science des Données. Cette session sera également l’occasion d’échanger avec des collègues académiques et des acteurs industriels sur les thématiques de recherche présentées.

Dates importantes :

  • Soumission de posters : au plus tard le 23 mars 2026 2 avril 2026
  • Retour : 9 avril 2026
  • Date limite d’inscription : 30 avril 2026
  • Symposium : les 2 et 3 juin 2026 à Avignon

Nous vous invitons d’ores et déjà à réserver ces dates dans votre agenda et à vous inscrire !
Inscrivez-vous ici

Pour en savoir plus…

MaDICS est un Groupement de Recherche (GDR) du CNRS créé en 2015. Il propose un écosystème pour promouvoir et animer des activités de recherche interdisciplinaires en Sciences des Données. Il est un forum d’échanges et d’accompagnement pour les acteurs scientifiques et non-scientifiques (industriels, médiatiques, culturels,…) confrontés aux problèmes du Big Data et des Sciences des données.
Pour en savoir plus…


Les activités de MaDICS sont structurées à travers des Actions et Ateliers. Les Actions rassemblent les acteurs d’une thématique précise pendant une durée limitée (entre deux et quatre ans). La création d’une Action est précédée par un ou plusieurs Ateliers qui permettent de consolider les thématiques et les objectifs de l’action à venir.


Le site de MaDICS propose plusieurs outils de support et de communication ouverts à la communauté concernée par les Sciences des Données:

  • Manifestations MaDICS : Le GDR MaDICS labellise des Manifestations comme des conférences, workshops ou écoles d’été. Toute demande de labellisation est évaluée par le Comité de Direction du GDR. Une labellisation rend possible un soutien financier pour les jeunes chercheuses et chercheurs. Une labellisation peut aussi être accompagnée d’une demande de soutien financier pour des missions d’intervenants ou de participants à la manifestation.
    Pour en savoir plus…
  • Réseaux MaDICS : pour mieux cibler les activités d’animation de la recherche liées à la formation et à l’innovation, le GDR MaDICS a mis en place un Réseau Formation destiné à divers publics (jeunes chercheurs, formation continue,…), un Réseau Innovation pour faciliter et intensifier la diffusion des recherches en Big Data, Sciences des Données aux acteurs industriels et un Club de Partenaires qui soutiennent et participent aux activités du GDR.
    Pour en savoir plus…
  • Espace des Doctorants : Les doctorants et les jeunes chercheurs représentent un moteur essentiel de la recherche et le GDR propose des aides à la mobilité et pour la participation à des manifestations MaDICS.
    Pour en savoir plus…
  • Outils de communication : Le site MaDICS permet de diffuser des informations diverses (évènements, offres d’emplois, proposition de thèses, …) liées aux thématiques de recherche du GDR. Ces informations sont envoyées à tous les abonnés de la liste de diffusion MaDICS et publiés dans un Calendrier public (évènements) et une page d’offres d’emplois.

Adhésion au GDR MaDICS : L’adhésion au GDR MaDICS est gratuite pour les membres des laboratoires ou des établissements de recherche publics. Les autres personnes peuvent adhérer au nom de l’entreprise ou à titre individuel en payant une cotisation annuelle.
Pour en savoir plus…


Manifestations à venir

Journées Ecoles Conférences et Séminaires

Actions, Ateliers et Groupes de Travail :

CODA DAE DatAstro DSChem EXMIA GINO GRASP RECAST SaD-2HN SIMDAC SimpleText TIDS  


Oct
14
Wed
2020
Research Engineer: Supporting HPC SKA challenges
Oct 14 – Oct 15 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Inria
Durée : 15 mois
Contact : christian.perez@inria.fr
Date limite de publication : 2020-10-14

Contexte :
The Square Kilometre Array (SKA) project is an international effort to build the world’s largest radio telescope, with eventually over a square kilometre (one million square metres) of collecting area. The scale of the SKA represents a huge leap forward in both engineering and research & development towards building and delivering a unique instrument, with all final reviews completed ahead of construction. The SKA Observatory is the second intergovernmental organisation dedicated to astronomy in the world, after the European Southern Observatory. It brings together a wealth of the world’s finest scientists, engineers and policy makers to bring the project to fruition.

SKA-France is a national coordination of industrial, technical and scientific activities preparatory to the SKA project in France. It created a consortium named “Maison SKA-France” to finance France’s membership in the Project Office, to define the French scientific and technological roadmap for the SKA, and to pursue the development of joint research projects between public and private partners targeting SKA major challenges.

Inria as a member of “Maison SKA France” brings its expertise in some challenging aspects of the project such as in high performance computing, big data, resource management, I/O, and IA.

The proposed job is an opportunity to work with many different people from around the world: physicists, computer scientists, engineers from academia and from the industry. It is also a rare opportunity to participate directly to a very ambitious international scientific project and see how it is operated.

Sujet :
The SKA project is now finalising the design work of all its components towards the construction proposal, including an intense Software Engineering activity. Development work is organized in small software teams distributed across the globe who coordinate through quarterly week-long planning events.

The recruited person will be at the interface between SKA, SKA France, and some Inria teams to contribute to answering issues raised during the bridging phase, in particular with respect to questions related to HPC programming models, HPC I/O, application performances, resource management, or energy efficiency.

The recruited person will participate to the PLANET team, a SKA software team dedicated to platform (benchmarking, monitoring, profiling) and network issues. This participation involves direct engineering work, regular meetings, planning work and reporting SKA activity to SKA France partners.

Profil du candidat :
The main activities can be split into four types:

* The recruited person will be in charge of following and summing up the information flow coming from SKA activities. In particular, the person will participate to the PLANET team, attend quarterly SKA planning events, and report to SKA France partners.
* She will participate to French effort in close cooperation with SKA France, which may involve participating to the SKA activities in the framework of the recently signed Collaboration Agreement between SKAO, CERN, PRACE and GÉANT.
* She will directly contribute to benchmarking work in collaboration with the PLANET team. This may involve installing /configuring so ware, scripting, submitting jobs, plotting results, etc. on high performance machines.
* The recruited person will contribute to identify issues which require specific expertise, identify Inria teams with relevant solutions, and work with them to transfer solutions to the SKA project.

Formation et compétences requises :
Technical skills and level required:

A broad understanding of high performance computing (programming models, benchmarking /profiling, optimization, parallelization, I/O) will be very valuable. In particular,previous experience in submitting jobs to clusters/supercomputers (batch schedulers, monitoring) and basic linux admin skill would be a plus.
Python proficiency would be appreciated, as well as familiarity with the Dask library.
Knowledge of agile project management techniques (scrum, kanban, SAFe) will be valuable to interact with SKA development teams.

Languages: high proficiency in English (many collaborators are native speakers).

Adresse d’emploi :
LIP
ENS Lyon
46 allée d’Italie
69364 Lyon

Document attaché : 202010141411_2020-02850-en.pdf

Oct
31
Sat
2020
EXTRACTION DE CONNAISSANCES À PARTIR DE DONNÉES TEXTUELLES ET DE SÉRIES TEMPORELLES CONCURRENTES
Oct 31 – Nov 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LabSTICC & IMT Atlantique
Durée : 15-18 mois
Contact : yannis.haralambous@imt-atlantique.fr
Date limite de publication : 2020-10-31

Contexte :
La mise en concurrence de données textuelles et de séries temporelles est une branche de la fouille de textes qui a émergé il y a une vingtaine d’années dans le cadre de la bourse, où l’on s’est posé la question : «peut-on prédire l’évolution du marché à partir d’une fouille textuelle de la presse spécialisée ?».

Ce projet vise à mettre en œuvre des techniques similaires dans un autre contexte : celui de l’amélioration des performances énergétiques et du monitoring. Le corpus textuel envisagé est celui des rapports quotidiens des techniciens surveillant des chaudières d’un site industriel. Les séries temporelles concurrentes sont celles de performance énergétique des chaudières, données produites à partir d’une multitude de capteurs.

Les rapports des techniciens sont des documents semi-structurés dans un langage naturel faiblement contrôlé. Une attention particulière est portée à la détection d’anomalies : celles-ci doivent être extraites à partir des données saisies (rapports structurés en langage contrôlé, mais aussi fragments en langage naturel) et corrélées avec des valeurs anormales des séries temporelles.

Sujet :
Il s’agira d’abord de faire une classification non supervisée des états des séries temporelles en corrélation avec les informations extraites des énoncés de langage contrôlé afin d’obtenir des indicateurs des différents niveaux de normalité/anomalie.

Ensuite, après concertation avec le fournisseur des données, on se concentrera sur certaines classes et on établira un modèle prédictif basé en même temps sur les données textuelles et les données issues des capteurs.

Parmi les pistes de recherche prometteuses on peut envisager une méthode générale pour corréler langage contrôlé et séries temporelles ainsi qu’une rétro-action : l’optimisation du langage contrôlé vis-à-vis du modèle prédictif. Le passage à un langage fortement contrôlé (avec validation morphosyntaxique et sémantique basée sur une ontologie ad hoc) permettrait alors de consolider l’optimisation énergétique et la prédiction d’anomalies.

PARTENAIRES ET ACTEURS :
Le projet LEARN-IA réunit trois acteurs : deux entreprises rennaises (Energiency et Script&Go) et une grande école d’ingénieurs (IMT Atlantique), il est financé par le Fonds européen de développement régional (FEDER) et la Région Bretagne-Atlantique. Il a été labellisé par le Pôle Images & Réseaux et le Pôle Mer.

Profil du candidat :
PRÉREQUIS : thèse de doctorat en fouille de texte ou en modélisation de séries temporelles (avec motivation pour approfondir le domaine du traitement automatique de la langue).

Formation et compétences requises :
PRÉREQUIS : thèse de doctorat en fouille de texte ou en modélisation de séries temporelles (avec motivation pour approfondir le domaine du traitement automatique de la langue).

Adresse d’emploi :
LIEU : IMT Atlantique, Brest. (Laboratoire Lab-STICC UMR CNRS 6285, équipe DECIDE)

DÉBUT DE CONTRAT : Dès que possible

DURÉE DU CONTRAT : entre 15 et 18 mois

RÉMUNÉRATION : environ 2300€ net/mois (avant prélèvement impôt à la source)

MODALITÉ DE CANDIDATURE : Le dossier de candidature doit comprendre, en un seul PDF, votre CV, lettre de motivation, liste de publications, les noms de 2-3 référents à contacter ou éventuellement des lettres de recommandation. Le dossier doit être adressé avant le 31 octobre 2020 minuit à :

– Yannis Haralambous : yannis.haralambous@imt-atlantique.fr
– Philippe Lenca : philippe.lenca@imt-atlantique.fr
– Lina Fahed : lina.fahed@imt-atlantique.fr

Offre Post-doc : Intelligence Artificielle eXplicable (XAI) pour des séries temporelles hétérogènes
Oct 31 – Nov 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : IMT Atlantique, Brest (Laboratoire​ Lab-STICC​ ​UM
Durée : entre 15 et 18 mois
Contact : lina.fahed@imt-atlantique.fr
Date limite de publication : 2020-10-31

Contexte :
La fouille de séries temporelles dans le but de prédiction et d’extraction des connaissances est un domaine très actif. Parmi les modèles existants, nous pouvons citer ceux à base de réseaux de neurones, d’approches ensemblistes, etc. Ces modèles sont très performants, mais ils restent des boîtes noires, à savoir le processus de modélisation est opaque et plusieurs questions se posent sur son explicabilité, la compréhension du résultat, la fiabilité et l’acceptabilité du modèle par les experts du domaine.
Cependant, depuis plusieurs années, de nouvelles exigences sociétales apparaissent, il s’agit des demandes pressantes pour rendre le processus de modélisation explicable et transparent afin de fournir des explications claires aux experts du domaine d’application [1, 2]. Récemment, de nouvelles méthodes pour développer l’explicabilité, indépendantes des modèles d’apprentissage, ont été proposées [2]. On peut les classer en deux familles: (i) les méthodes qui ajoutent une étape, indépendamment de l’étape de modélisation et d’apprentissage, pour expliquer le modèle et (ii) les méthodes qui améliorent l’explicabilité du processus interne de modélisation en agissant sur les étapes de l’apprentissage. Cependant, l’explication fournie par ces méthodes reste marginale dans le cadre de séries temporelles hétérogènes, surtout face à l’intégration des connaissances experts à travers des données sémantiques [3, 4, 5].

Sujet :
Il s’agit de proposer une méthode d’intelligence artificielle explicable sur des séries temporelles hétérogènes. Ces travaux seront menés dans le cadre du projet LEARN-IA dont l’objectif principal est l’amélioration de la performance énergétique des infrastructures dans des environnements industriels. Deux types de séries temporelles seront mis à disposition : (i) des séries temporelles sémantiques générées à partir des rapports quotidiens des techniciens et (ii) des séries temporelles numériques générées à partir des capteurs électroniques celles de performance énergétique des chaudières.
La mission du futur post-doc sera d’exploiter ces séries temporelles hétérogènes afin de proposer une modélisation explicable, à savoir une méthode d’intelligence artificielle qui permet d’expliquer le résultat du modèle d’apprentissage (de prédiction ou d’extraction des connaissances) utilisé et qui agit indépendamment ou conjointement avec le modèle d’apprentissage.
L’enjeu principal est de pouvoir expliquer les raisons de l’écart de performance pour un modèle d’apprentissage en fonction des données. Nous supposons que les raisons d’un tel écart peuvent être liées à deux facteurs : (i) aux données et l’objectif sera donc de trouver les données qui impactent la performance, (ii) et au modèle d’apprentissage lui-même: le but sera donc de repérer les étapes/paramétrages dans le modèle d’apprentissage qui est sensible à la nature des données.
Etant donné que l’explication fournie par une telle méthode explicable sera destinée aux experts du domaine, une attention particulière doit être apportée à la formulation de l’explication. Une explication doit avoir les caractéristiques suivantes : clarté, précision, satisfaction, validité du contenu, impartialité et non-discrimination (non biaisé). Une telle méthode explicable fera partie d’un cycle complet : si les explications sont satisfaisantes, elles permettent à l’expert d’accepter la décision proposée et les guide afin de faire les bonne actions. Cela à son tour permet de développer un certain degré de confiance au système et apporte une interaction optimale avec ce système.

PARTENAIRES ET ACTEURS :
Le projet LEARN-IA réunit trois acteurs : deux entreprises rennaises et une grande école d’ingénieurs (IMT Atlantique), il est financé par le Fonds européen de développement régional (FEDER) et la Région Bretagne-Atlantique. Il a été labellisé par le Pôle Images & Réseaux et le Pôle Mer.

RÉFÉRENCES :
[1] Goodman, Bryce, and Seth Flaxman. “European Union regulations on algorithmic decision-making and a “right to explanation”.” ​AI magazine​ 38.3 (2017): 50-57, aaai.org.
[2] Guidotti, Riccardo, et al. “A survey of methods for explaining black box models.” ​ACM computing surveys (CSUR)​ 51.5 (2018): 1-42.
[3] Giurgiu, Ioana, and Anika Schumann. “Explainable failure predictions with rnn classifiers based on time series data.” ​arXiv preprint arXiv:1901.08554​ (2019).
[4] Karlsson, Isak, et al. “Explainable time series tweaking via irreversible and reversible temporal transformations.” ​2018 IEEE International Conference on Data Mining (ICDM)​. IEEE, 2018.
[5] Bascol, Kevin, et al. “Unsupervised interpretable pattern discovery in time series using autoencoders.”
Joint IAPR International Workshops on Statistical Techniques in Pattern Recognition (SPR) and Structural and Syntactic Pattern Recognition (SSPR).​ Springer, Cham, 2016.

Profil du candidat :
thèse de doctorat en fouille de données, machine learning, et/ou modélisation de séries temporelles.

Formation et compétences requises :
python, Scikit-Learn, analyse statistiques, neural networks, …

Adresse d’emploi :
Laboratoire​ Lab-STICC​ ​UMR CNRS 6285​, équipe ​DECIDE​
IMT Atlantique Bretagne-Pays de la Loire Campus de Brest Technopôle Brest-Iroise CS 83818 29238 Brest cedex 03

Document attaché : 202009291515_postdoc-XAI-séries-temporelles-IMTA.pdf

Nov
1
Sun
2020
Post-Doctorat 18 mois MINES Saint-Étienne – Web Sémantique – Planification
Nov 1 – Nov 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : MINES Saint-Étienne
Durée : 18 mois
Contact : maxime.lefrancois@emse.fr
Date limite de publication : 2020-11-01

Contexte :
https://ci.mines-stetienne.fr/jobs/2020-AssistantMobileIntelligent.html

De nos jours, face aux marchés en constante évolution, la flexibilité des lignes de production est devenue primordiale. Les industriels sont à la recherche de solutions permettant de gagner en productivité et souplesse dans un environnement homme/machine évolutif. Aux côtés des lignes de production statiques, une nouvelle génération de robots nomades (AGV/COBOT) voit le jour. Sur le marché émergent de la robotique mobile où l’offre constructeur est encore limitée par des solutions capables de ne réaliser que des tâches prédéfinies, le projet SIRAM envisage une approche plus “ouverte” reposant sur 2 axes complémentaires. Il propose, d’une part, de définir une méthodologie de paramétrage générique en vue d’intégrer un module de vision 3D à des solutions de robotiques mobiles et, d’autre part, la mise en place d’un système informatique souple et évolutif permettant leur coordination et leur pilotage. L’ajout de la vision 3D permettra au robot assistant mobile de s’adapter à son environnement ou aux objets à manipuler lui conférant ainsi une plus grande souplesse d’actions et d’usages. Le développement d’un système d’information intégré fournira, quant à lui, l’interopérabilité nécessaire à la pleine exploitation des capacités d’un tel ensemble.

Ce projet prône une approche systémique allant des machines au système d’information en considérant les multiples acteurs impliqués afin de permettre une meilleure compréhension et supervision de l’environnement socio-technique dans lequel les robots assistants mobiles seront intégrés. Dès la phase de conception, l’emploi de la méthode Design Thinking prendra en compte les attendus et particularités d’un environnement mixte (homme/machine) dans le but de faciliter l’intégration de l’outil numérique auprès des utilisateurs. Ce projet se situe à la convergence des technologies qui se démocratisent dans l’industrie : MES, supervision, robotique, vision… tout en s’affranchissant des particularités des fabricants.

Le projet SIRAM, d’une durée de deux ans et d’un budget de 1M€, est un projet RDI Booster financé par la région Auvergne-Rhône-Alpes. Les partenaires du projet sont MECACONCEPT, CREATIVE IT, et l’École des MINES de Saint-Étienne. Il s’agit du premier projet d’envergure de la plateforme technologique IT’m Factory, espace industriel simulé conçu en partenariat avec l’UIMM et l’Institut Fayol de l’École des Mines de Saint-Étienne, destiné à accompagner les PME-TPE et ETI du département de la Loire vers l’Industrie du Futur.

Les objectifs principaux du projet sont:

Définir une méthodologie démontrée par un pilote sur la Plateforme IT’m Factory permettant de déployer un système d’information interopérable et adaptable (SI-IA) pour le pilotage flexible des robots assistants mobiles dans un contexte industrie 4.0
Faciliter le déploiement et le fonctionnement de robots assistants mobiles dans un environnement industriel humain-machine existant.

Sujet :
https://ci.mines-stetienne.fr/jobs/2020-AssistantMobileIntelligent.html

Intégrez le projet de R&D SIRAM (Système Intégré pour Robots Assistants Mobiles), et contribuez au développement d’une méthodologie générique permettant le déploiement et le fonctionnement flexible de robots assistants mobiles (AGV/cobot/vision 3D) dans un environnement industriel humain-machine.

L’école des Mines de Saint-Étienne, créée en 1816, est référencée dans le top 250 des meilleures écoles d’ingénieurs au monde selon Times Higher Education, elle est la deuxième école d’ingénieurs française hors Paris. Elle est membre de l’Institut Mines-Télécom – premier groupe français de grandes écoles d’ingénieurs et de management, positionné sur les changements majeurs du XXIe siècle : les transformations numériques, environnementales et énergétiques, industrielles et éducatives.

L’institut Henri Fayol, un des 5 centres de formation et de recherche de l’école, regroupe des enseignants-chercheurs en génie industriel, en mathématiques appliquées, en informatique, en environnement et en management autour du thème de la performance globale des entreprises. L’institut est fortement impliqué dans les projets phares de l’Industrie du Futur et de la Ville du Futur.

Au-delà de la renommée de l’École, vous découvrirez une ville accueillante et dynamique avec une large offre de loisirs (sports variés, centre dramatique national, opéra, cité du design…), aux portes de la nature (massif du Pilat, gorges de la Loire…) mais avec un accès rapide aux grandes villes (moins d’une heure de Lyon et trois heures de Paris en TGV).

Rejoignez une équipe multiculturelle, passionnée, reconnue à l’international dans le domaine du Web Sémantique et des Systèmes Multi-Agents, qui vous poussera à dépasser vos limites et donner le meilleur de vous-même!

Les objectifs du post-doctorat dans le projet SIRAM sont:

Création d’un standard d’échanges entre différents matériels tels que Cobot, AGV, module de vision 3D afin d’assurer interopérabilité entre matériels hétérogènes
Définition d’un langage de description d’actions et de processus industriels indépendant des ressources et matériels impliquées (robots assistants mobiles, machines, etc) afin d’assurer flexibilité
Mise en place d’un système d’information intégré pour le pilotage flexible des processus industriels ainsi décrits
Implication dans l’animation et la gestion du projet en relation avec les partenaires industriels.

Profil du candidat :
https://ci.mines-stetienne.fr/jobs/2020-AssistantMobileIntelligent.html

Nous recherchons un docteur en informatique, avec d’excellentes connaissances en Web Sémantique.
Les entretiens sont menés au fil de l’eau, pour prise de poste au plus tôt.
Pour candidater, envoyer CV, lettre de motivation, et toute autre information utile, à: Maxime Lefrançois ; Fabien Badeig ; Bruno Léger

Formation et compétences requises :
Nous recherchons un docteur en informatique, avec d’excellentes connaissances en Web Sémantique.
Les entretiens sont menés au fil de l’eau, pour prise de poste au plus tôt.
Pour candidater, envoyer CV, lettre de motivation, et toute autre information utile, à: Maxime Lefrançois ; Fabien Badeig ; Bruno Léger

Adresse d’emploi :
MINES Saint-Étienne

Nov
10
Tue
2020
Enseignant-Chercheur en apprentissage & traitement d’images
Nov 10 – Nov 11 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IGN-ENSG
Durée : CDI
Contact : clement.mallet@ign.fr
Date limite de publication : 2020-11-10

Contexte :
L’Institut national de l’information géographique et forestière*1 (IGN) est l’opérateur de l’État en matière d’information géographique et forestière de référence, certifiée neutre et interopérable. L’Institut développe en permanence de nouveaux référentiels, produits et géoservices, répondant aux besoins croissants et évolutifs en données cartographiques et en informations géolocalisées.
Puissant acteur public du numérique pour la description multithématique du territoire, l’IGN intervient en appui de la définition, de l’évaluation et de la mise en œuvre des politiques publiques en relation avec différents domaines et dispose de compétences particulières sur la forêt.
L’innovation est au cœur de la stratégie de l’IGN au travers de ses cinq laboratoires de recherche, de son école (ENSG), de son accélérateur de projets de géoservices numériques (IGNfab), de ses experts forestiers et des prestations réalisées par le service de l’imagerie spatiale, le service des projets et des prestations, et les travaux spéciaux de géodésie-métrologie.

L’École Nationale des Sciences Géographiques (dite aussi ENSG-Géomatique) est une école d’enseignement supérieur et de recherche reconnue par le code de l’éducation. Elle est aussi la composante d’enseignement supérieur et de recherche de l’IGN. L’ENSG est rattachée à la Direction des sciences et technologies (DSTI) de l’IGN qui regroupe toutes les activités métier de l’établissement (recherche, formation, R&D, développement, SI).
Le centre de compétences Photogrammétrie Télédétection et Vision par Ordinateur (CC Imagerie) regroupe une trentaine d’agents. Il comprend un pôle d’enseignement qui regroupe les personnels enseignants et enseignants-chercheurs et dont le responsable est en poste à Champs-sur-Marne. Les agents de ce centre de compétence effectuent leur mission de recherche au sein du laboratoire LaSTIG à Saint-Mandé.
Le chef du centre de compétences est placé sous la responsabilité hiérarchique du directeur de l’ENSG et est sous la responsabilité fonctionnelle du délégué scientifique et technique de l’ENSG pour les activités de recherche et sous la responsabilité fonctionnelle du chef du service des enseignements pour les activités de formation.
Dans ce cadre, le centre de compétences en Photogrammétrie Télédétection et Vision par Ordinateur (CC Imagerie) met à disposition ses ressources pour la réalisation des programmes de formation et de recherche mais également pour des missions d’expertise (montage de projets, etc.).
Le LASTIG, unité mixte de recherche, sous la tutelle de l’Université Gustave Eiffel et de l’IGN-ENSG, inscrit ses recherches en sciences de l’information géographique, pour la ville durable et les territoires numériques, dans le cadre des enjeux liés au changement climatique et ses impacts environnementaux et sociétaux. Les équipes du LaSTIG participent à fournir des données, des connaissances, des méthodes et des outils pour la modélisation, l’analyse, la simulation et la visualisation du territoire et de phénomènes spatio-temporels sur ce territoire, pour différents usages.
En particulier, l’équipe STRUDEL – Structures spatio-temporelles pour l’analyse des territoires – s’intéresse à l’ensemble des données, structures de données, algorithmes et modèles nécessaires à l’analyse du territoire pour une meilleure compréhension de son fonctionnement et de ses évolutions (analyse menée avec des utilisateurs finaux: prescripteurs publics, chercheurs en modélisation numériques et géographiques, sociétés privées).

Sujet :
L’enseignant-chercheur a la responsabilité des enseignements qui lui sont confiés par le ou les responsables pédagogiques de cycles de manière prioritaire dans le domaine des compétences lié à ses activités de recherche disciplinaire dans le cadre et le périmètre défini par le schéma directeur de la recherche et des technologies de l’IGN.

L’enseignant-chercheur en méthodes d’apprentissage dispense une partie des cours de télédétection, notamment sur les méthodes d’apprentissage en imagerie, et anime le réseau des enseignants vacataires dans ce domaine. En concertation avec le responsable du pôle d’enseignement, il conseille le directeur des études sur l’évolution des programmes d’enseignement. Il participe à l’évolution des compétences dans le domaine.

L’enseignant-chercheur participe aux projets de recherche en cours, mène et encadre des recherches en apprentissage sur les données spatiales et en télédétection, dans l’équipe STRUDEL du LASTIG, en collaboration avec les chercheurs de l’équipe et des trois autres équipes du LaSTIG.
* Prendre en charge la responsabilité des cours, TD et TP de programmation en méthodes d’apprentissage et en télédétection, en abordant les composantes théoriques, conceptuelles, techniques et technologiques sur ces questions.
* Assurer la mise en oeuvre des cours, TPs, projets, évaluations et des autres activités pédagogiques, ou les déléguer à des vacataires, participer à des jurys de sélection.
* Développer de nouvelles compétences et de nouveaux cours et TPs, dans les formations de l’ENSG, autour des méthodes d’apprentissage, tant conceptuellement que techniquement, et à moyen terme assurer la responsabilité pédagogique d’un cycle d’enseignement.
* Assurer des activités de recherche en méthodes d’apprentissage, tout d’abord dans le cadre des projets existants et en collaboration avec les chercheurs de l’équipe STRUDEL, et progressivement mener et encadrer des projets de recherche. En particulier, il focalisera ses recherches sur les méthodes semi-supervisées ou interactives sur données vecteur et rasteur 2D.
* Valoriser ses connaissances et contributions scientifiques et techniques, en interne à l’IGN et à l’ENSG, comme en externe dans les communautés de recherche (publications et communications en conférences, publications dans des journaux, vulgarisation scientifique, etc.).
* Assurer une veille sur les techniques et la communauté d’utilisateurs, et valoriser cette veille au sein de l’établissement.

Profil du candidat :
Thèse en informatique, apprentissage, sciences de l’information géographique, traitement du signal ou des images

Formation et compétences requises :
Compétences managériales
– Savoir transmettre un savoir, une technique, une compétence
– Savoir encadrer des projets d’élèves, des stagiaires, et progressivement d’autres chercheurs (doctorants, post-doctorants, etc.)

Compétences techniques
– Savoir définir et mener à bien une activité de recherche dans les domaines de recherche du laboratoire LaSTIG ; cette compétence doit être validée par la détention d’une thèse de doctorat en sciences de l’information géographique ou en informatique
– Savoir concevoir et évaluer un dispositif pédagogique
– Savoir concevoir, rédiger et dispenser un cours, encadrer un TP ou un projet
– Savoir animer des modules d’enseignement ou des groupes de travail sur les composantes des méthodes d’apprentissage
– Savoir évaluer le travail et les acquis des étudiants
– Maîtriser la programmation, les méthodes de photogrammétrie
– Avoir des compétences en télédétection et vision par ordinateur.

Compétences organisationnelles
– Savoir mener une veille technique et métier
– Savoir rendre compte de son activité

Compétences relationnelles
– Savoir travailler en équipe
– Savoir faire preuve de pédagogie
– Savoir animer, développer et entretenir des partenariats et/ou des réseaux professionnels
– Connaître des techniques de l’information, de la communication et de l’enseignement.

Adresse d’emploi :
IGN/ENSG 6-8 avenue Blaise Pascal – 77 – Champs sur Marne (proximité RER A) et IGN 73 avenue de Paris – 94160 – Saint-Mandé (proximité Métro et RER A)

Document attaché : 202010141245_ign_offre_emploi-ensg-ec_apprentissage.pdf

Nov
12
Thu
2020
Postdoctoral position in oceanography / data science (M/F)
Nov 12 – Nov 13 all-day

Offre en lien avec l’Action/le Réseau : MACLEAN/– — –

Laboratoire/Entreprise : Institut des Geosciences de l’Environnement, Gren
Durée : 18 months
Contact : Julien.Lesommer@univ-grenoble-alpes.fr
Date limite de publication : 11/12/2020

Contexte :
The Institute for Environmental Geosciences (IGE) is looking for a post-doctoral researcher to develop inverse methods for processing observational data in oceanography. He/she will particularly focus on the applications of machine learning methods in the context of data assimilation in oceanography.

The recruited researcher will work at the Institute of Environmental Geosciences (IGE) within the MEOM group in the framework of the ANR MeLODy project. The IGE (http://www.ige-grenoble.fr) is a joint research unit bringing together staff from the UGA, CNRS, Grenoble INP and IRD who are interested in the study of the climate and the anthropisation of our planet. The MEOM group (http://meom-group.github.io) brings together 25 researchers, engineers, students and postdocs in the field computational oceanography. The MeLODy project (2019-2023, PI: R. Fablet) “Bridging geophysics and MachinE Learning for the modeling, simulation and reconstruction of Ocean DYnamics” (https://anr-melody.github.io) is a research project supported by the French National Research Agency (ANR) which aims to accelerate the development of data-driven approaches in physical oceanography, particularly in the context of the reconstruction of upper ocean dynamics.

Applications at https://emploi.cnrs.fr/Offres/CDD/UMR5001-CARMEL-006/Default.aspx

Sujet :
The work envisaged is part of the ANR MeLODy project (https://anr-melody.github.io) and will be carried out in collaboration between the MEOM group at IGE (Grenoble) and the Lab-STICC (Brest). It will focus on the development of new approaches for the exploitation of oceanographic data, at the interface between data assimilation and machine learning. The context of application could be that of ocean forecasting systems (Copernicus Marine Services) or the processing of space observation data (in particular satellite altimetry). The experimental framework will use Observation System Simulation Experiments based on numerical simulations performed by the MEOM group. The selected candidate will work in close collaboration with Julien Le Sommer, Emmanuel Cosme, Pierre Brasseur and Ronan Fablet.

Applications at https://emploi.cnrs.fr/Offres/CDD/UMR5001-CARMEL-006/Default.aspx

Profil du candidat :
The expected candidates research background should demonstrate their competence or interest in the fields of physical oceanography, data assimilation and machine learning. They will master the implementation of the main software libraries in machine learning. They should speak and write English fluently and be able to interact in a multicultural environment. They will need to demonstrate curiosity, autonomy and initiative.

Formation et compétences requises :
The expected candidates will hold a PhD in oceanography, meteorology or data science.

Adresse d’emploi :
Grenoble, Campus universitaire.

Nov
16
Mon
2020
Classification de l’état d’un conducteur de voiture
Nov 16 – Nov 17 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LGI2A Bethune
Durée : 1 an
Contact : francois.delmotte@univ-artois.fr
Date limite de publication : 2020-11-16

Contexte :
The Vumope project aims at optimizing the sharing of the driving’s task between a human driver and safety systems.
In particular the LGi2A tries to refine models about the state of the drivers in order to improve the overall safety of the multimodal system.

Sujet :
The objective of the post-doctoral position are:
• To dig into a database in order to obtain models about the mental state of the drivers (tiredness for example)
• To realize several scientific publications in renown ranked journals,

•The project is undertaken by collaborating with other teams/ labs from the Hauts-de-France, and in particular with the LAMIH lab from the university of Valenciennes.

Profil du candidat :
PhD in Datamining, statistics, classification,
Matlab language is required, basic knowledge of the Python language is a perk

Application: send CV, PhD defense reports, articles to francois.delmotte@univ-artois.fr

Formation et compétences requises :
PhD in Datamining, statistics, classification,
Matlab language is required, basic knowledge of the Python language is a perk

Application: send CV, PhD defense reports, articles to francois.delmotte@univ-artois.fr

Adresse d’emploi :
Lgi2A, University of Artois, Béthune (Nord de France), France

one year position, from 01/12/2020. monthly gross salary: 2550€,

Nov
30
Mon
2020
Chercheur scientifique (apprentissage automatique / science des données)
Nov 30 – Dec 1 all-day

Offre en lien avec l’Action/le Réseau : – – -/Innovation

Laboratoire/Entreprise : École française d’Extrême-Orient
Durée : 5 ans
Contact : damian.evans@efeo.net
Date limite de publication : 2020-11-30

Contexte :
Dans le cadre de l’ERC Consolidator Grant # 866454, financé par l’ERC, l’École française d’Extrême-Orient (EFEO) lance un programme de cinq ans pour faire des recherches sur les héritages écologiques des sociétés anciennes dans les environnements forestiers tropicaux en Asie du Sud-Est.
Le projet s’appuie sur l’expertise de l’EFEO dans les applications de balayage laser aéroporté à l’échelle du paysage (lidar) dans la région, pour étendre considérablement notre couverture de données lidar à travers la région de l’Asie du Sud-Est, et pour développer de nouveaux outils afin d’automatiser l’identification des entités dans les données 3D et dans les produits d’imagerie dérivés. L’objectif est d’utiliser les applications de l’apprentissage automatique pour identifier les traces restantes des premières sociétés dans la structuration spatiale de la topographie et de l’occupation des sols contemporains. Dans le cadre de ce projet, l’EFEO établira un nouveau laboratoire dans son siège parisien pour poursuivre des approches informatiques d’analyse d’ensembles de données géospatiales massifs en collaboration avec une équipe interdisciplinaire d’archéologues et d’écologues.

Employeur:

L’EFEO est un institut de recherche public français spécialisé dans l’histoire, les langues et les cultures de l’Asie du passé à nos jours. Elle exploite un réseau unique de 18 centres de recherche sur le terrain dans 12 pays de la région, coordonnés depuis un siège central à Paris. L’EFEO est partenaire académique de l’Université de recherche PSL, et est l’un des cinq instituts de recherche français qui composent le Réseau des écoles françaises à l’étranger (ResEFE). Elle entretient des liens de recherche et d’enseignement solides avec Sorbonne Université, le CNRS et d’autres institutions à travers l’Europe et l’Asie. Dans les années récentes, l’EFEO a reçu de nombreuses subventions importantes financées par l’ERC et s’est placée à la tête de plusieurs initiatives de recherche exploratoire impliquant des approches spatiales et informatiques dans les sciences humaines et sociales en collaboration avec Huma-Num et d’autres partenaires.

Sujet :
Nous recherchons un expert en science des données et en apprentissage automatique qui souhaite appliquer ses compétences pour améliorer notre compréhension des impacts humains sur l’environnement du passé lointain à nos jours.
Il s’agit d’un poste à temps plein, financé pendant cinq ans et basé à Paris.

Responsabilités:

Travailler au sein d’une équipe interdisciplinaire d’informaticiens et de spécialistes des sciences sociales pour atteindre les objectifs de la bourse ERC Consolidator, autour des applications de l’intelligence artificielle pour la reconnaissance des caractéristiques dans des ensembles de données géospatiales massifs

Soutenir le groupe de recherche avec une expertise sur la science des données et les méthodes d’apprentissage automatique de pointe

Identifier et développer de nouvelles opportunités pour les applications de l’intelligence artificielle à l’analyse des données du patrimoine culturel, y compris l’imagerie aérienne et satellite et les nuages de points 3D

Superviser, aux côtés du chercheur principal, le fonctionnement quotidien d’un laboratoire de recherche à l’intersection de l’informatique, de l’archéologie et de l’écologie

Aider à la formation et à l’encadrement d’étudiants de niveau doctorat ou master dans les domaines de l’informatique, et dans les applications interdisciplinaires de l’informatique dans les sciences humaines et sociales

Sensibilisation et éducation du public par la participation à des séminaires, des colloques et la diffusion des résultats de la recherche dans les médias numériques, imprimés et audiovisuels

Collaborer avec les autres membres du projet afin de publier les résultats du projet

Profil du candidat :
Chercheur reconnu (R2)
Chercheur établi (R3)

Nous nous engageons à améliorer la diversité dans nos domaines de recherche, et les applications issues de la démographie, traditionnellement sous-représentée en archéologie et en informatique, sont particulièrement encouragées.

Durée / Charge:

Cette nomination est disponible immédiatement, est financée jusqu’en septembre 2025, et est un poste à temps plein à 100%

Rémunération:

3540 par mois net (après application de toutes charges et cotisations sociales, mais avant cotisations à l’impôt sur le revenu prélevé à la source, le cas échéant).

Formation et compétences requises :
Critères de base:

Être titulaire d’un doctorat (ou sur le point de l’obtenir dans des délais connus) en informatique, mathématiques ou dans un domaine connexe

Excellentes compétences en science des données et en apprentissage automatique, y compris en apprentissage profond (par exemple, CNN)

Connaissance approfondie de Python ainsi que des cadres d’apprentissage automatique courants

Expérience de l’application de méthodes d’apprentissage automatique à des problèmes scientifiques

Excellentes compétences en communication et collaboration

Un historique de résultats de recherche de haute qualité tels que la publication ou la co-publication d’articles dans de grandes conférences internationales ou dans des contextes universitaires évalués par des pairs

Compétence de haut niveau en anglais et en français (minimum niveau B2 dans les deux langues)

Un engagement fort pour une recherche éthique, ouverte et reproductible

Autres critères :

Expérience dans l’optimisation et la répartition des tâches appliquées à l’apprentissage automatique via des systèmes informatiques parallèles / hautes performances et / ou des GPU

Expérience et intérêt pour l’IA interprétable

Expérience de l’enseignement et / ou de tutorat au niveau universitaire, en particulier d’étudiants diplômés

Expérience de l’application de méthodes informatiques ou statistiques en sciences humaines ou sociales

Connaissance de langues ou cultures d’Asie du Sud-Est

Intérêt pour le patrimoine culturel, l’archéologie et les arts

Adresse d’emploi :
EFEO
22 Avenue du Président Wilson
75116 Paris

Document attaché : 202011301211_Fiche_de_poste_ERC_Archeoscape_Data_Science.pdf

Ingénieur ou ingénieure interopérabilité et ingénierie de la connaissance à l’IRD
Nov 30 – Dec 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : MIDN – Mission Infrastructures et Données Numériqu
Durée : 12
Contact : jean-christophe.desconnets@ird.fr
Date limite de publication : 2020-11-30

Contexte :
Afin de construire un écosystème numérique pour la science qui puisse assurer l’interrogation conjointe des bases de données scientifiques institutionnelles et assurer à terme la réutilisation de ces données pour réaliser des indicateurs d’activités, de suivi, des tableaux de bord des productions scientifiques, l’IRD, dans le cadre de son Schéma Directeur Numérique 2019-2023 a démarré des travaux visant à améliorer l’interopérabilité de ces bases. Des premiers travaux ont permis de regrouper, de formaliser et d’aligner les référentiels terminologiques selon les standards du Web Sémantique. Ils sont également portés sur une démarche qui doit permettre le regroupement, la structuration et la standardisation de ces systèmes d’information scientifiques. Ce chantier s’inscrit d’une part dans les actions autour de la science ouverte des organismes de recherche français tels qu’elles ont été présentées dans le Plan National de la Science Ouverte et d’autre part, vise à standardiser et pérenniser la structuration et l’exposition des métadonnées scientifiques de l’institut en vue de leur interconnexion.

Sujet :
Mission

L’agent recruté a pour mission d’une part de prolonger les travaux initiés sur la constitution des référentiels terminologiques et d’autre part de travailler à l’amélioration du moissonnage des données et métadonnées des SI scientifiques pour constituer une première base de connaissance des productions numériques scientifiques de l’IRD.

Activités

Continuer de construire les référentiels disciplinaires de l’IRD. L’accent sera en particulier mis sur la formalisation et l’alignement avec les référentiels géographiques nationaux et internationaux,
Développer des routines pour regrouper, formaliser et structurer les métadonnées scientifiques selon les standards du web en vigueur afin de les interconnecter et les interroger,
Participer à l’urbanisation des SI en définissant avec les parties prenantes les exigences pour la conception ou la création des bases de données institutionnelles,
S’impliquer dans la communauté des sciences des données pour assurer une veille technologique, échanger avec les autres instituts dans le cadre des initiatives nationales et internationales (CoSO, RDA)

Profil du candidat :
informaticien spécialisé en sciences des données ou ingénierie de la connaissance

Formation et compétences requises :
Compétences

Très bonne maitrise des concepts, méthodes et outils liés à la modélisation de données et de connaissances.
Spécialisation en construction et curation de référentiels terminologiques/ontologies.
Connaissance des technologies du web sémantique (concepts, langages).
Maîtrise d’outils de construction, d’alignements ou d’agrégation d’ontologies.
Connaissance des principaux standards d’interopérabilité sur les métadonnées et les données fortement souhaitée.
Rigueur et capacité d’analyse, en particulier pour les travaux de structuration de la connaissance ou d’alignement de référentiels.

Aptitudes

Excellentes capacités relationnelles
Capacité de synthèse
Capacité à appréhender un domaine nouveau, en évolution.
Aptitudes rédactionnelles et pédagogiques
Capacité à s’intégrer dans des groupes de travail nationaux ou internationaux

Adresse d’emploi :
Maison de la télédétection – Montpellier

Document attaché : 202008250924_Ingénieur interopérabilité et ingénierie de la connaissance MIDN-2020.pdf

Postdoctoral position: machine learning and numerical simulation in mechanics
Nov 30 – Dec 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Mines Saint-Etienne
Durée : 12 months
Contact : leriche@emse.fr
Date limite de publication : 2020-11-30

Contexte :
This position is part of the MINDS project (MInes : Numérique, Data and Simulation) funded by the Carnot M.I.N.E.S. Institute to which many of the « Écoles des Mines » engineering colleges contribute. The overall goal of the MINDS project is to enhance the level of proficiency within the
Institut Carnot M.I.N.E.S. in the booming research domain that is the convergence between intensive numerical simulation and data sciences. In practice, the MINDS project will create a numerical platform for research and development shared between the actors of the Institute that will foster synergies between researchers, leverage research and answer questions stemming from industry.

Sujet :
The postdoctoral researcher will study links between machine learning and flows in porous media. At the origin of the project is the existence of random fields that condition flows within the porous media and that can now be learned and generated by machine learning technics.
The random fields which determine the flows occur in many contexts such as geological structures and metal foams. In the current project, the application considered is a preform made of natural or synthetic fibers through which an epoxy resin flows during the manufacturing of a structural component made of composite materials. Such fiber preforms are complex media characterized by the variation of their properties through space and manufacturing instances, which limits the
significance of deterministic simulations. Nevertheless, progress in AI, intensive computing and probabilities shed a new light on these issues.

The goal of the postdoctorate is to study the potential of machine learning to better monitor and control the variability of porous media in manufacturing. Two tasks are envisioned. Starting from a data set of permeability or porosity fields, the first task will be to learn to generate
new field instances. To this aim, generative models such as GANs – Generative Adversial Networks – or VAEs – Variational Auto Encoders – will be studied. Physical features of the fields may be used : ermeabilities are tensors ; there are two scales, the microscopic scale of the fibers and the macroscopic scale of the equivalent homogeneous medium at which permeability tensors are defined.
The second task is to construct an inverse model that takes as input the macroscopic time records of resin flow and pressure in the mold, and infers from it probable permeability fields. Bayesian statistics are possible methods to transform an a priori on a nominal permeability field into a field posterior to the data recorded during the infusion.

Profil du candidat :
The motivation, the scientific skills and the coherence of the professional perspectives will be the main criteria for the selection. This postdoctorate will take place within a collaboration between two teams in St-Etienne and one in Sophia-Antipolis so that the candidate should demonstrate team
spirit.
The details of the research program may be adapted to better match the background of the candidate.

Formation et compétences requises :
The postdoctoral researcher should hold a PhD either in relation to machine learning, either in the field of applied mathematics, or computer science or numerical mechanics.

Adresse d’emploi :
École des Mines de Saint-Étienne, France (42) with periodic stays at the CEMEF (Mines ParisTech) Sophia-Antipolis.

Document attaché : 202010121603_post_doc_MINDS_4ml_en.pdf

Dec
1
Tue
2020
CNRS postdoc/research engineer position at I3S lab, Sophia Antipolis (France) – exploitation and visualization of Linked Data knowledge graphs in agronomy, agriculture and biodiversity
Dec 1 – Dec 2 all-day

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : I3S, UMR7271 – Université Côte d’Azur, CNRS, Inria
Durée : 24 months
Contact : franck.michel@cnrs.fr
Date limite de publication : 2020-12-01

Contexte :
The D2KAB ANR project (www.d2kab.org), started in 2019, aims to create a framework able to turn data from the agronomy, agriculture and biodiversity domains into semantically described, interoperable, actionable and open knowledge. It also aims to investigate the scientific methods and tools needed for applications in science and agriculture to exploit this knowledge. The project will provide the means – ontologies and linked open data – for agronomy, agriculture and biodiversity to produce and exploit FAIR data while embracing the semantic Web technologies. To do so, the project will develop novel methods and algorithms in the following areas: data integration, text mining, semantic annotation, ontology alignment, linked data exploitation and visualization.
While the wide adoption of the linked data principles opens new exciting opportunities, finding one’s way in the Web of Data becomes a challenging task. Indeed, as more datasets are published as linked data through interfaces such as SPARQL endpoints or URI dereferencing, discovering datasets of interest and making sense of them is now a hard task. Novel solutions are required to help users and applications to discover, explore and visualize linked data.
With this postdoc or researcher position, our goal is to push the state-of-the-art in exploring, visualizing and reasoning over linked data in ways that are appropriate for the agronomy, agriculture and biodiversity domains.

Sujet :
The postdoc/researcher missions will be to:
– Propose novel methods to transform linked data into relevant visualizations and equip user interfaces with advanced linked data navigation functions. This may rely on or extend the methods developed in LodLive or RelFinder . This may also leverage SPARQL Template Transformation Language (STTL) , a generic RDF transformation rule language, and LDScript, a Linked Data scripting language on top of the SPARQL filter expressions.

– Use traversal-based SPARQL query execution to develop new methods allowing to discover datasets of interest with respect to a user-provided scientific question, thus fostering serendipitous linked data querying.

– Reason on ontological knowledge and ontology alignments provided by AgroPortal, an ontology management portal based on the BioPortal technology, to enhance Linked Data visualization and traversal-based query answering.

– Propose novel methods to verify datasets consistency, e.g. for the detection of incomplete data or the detection of inconsistencies when ontologies change.

The candidate will take part to the development of software implementing the methods defined, within the context of tools used/elaborated by the project partners, along with the production of appropriate documentation. This will also entail writing scientific articles to be published in specialized conferences and journals.

APPLICATIONS MUST BE SUBMITTED EXCLUSIVELY AT: http://bit.ly/2wrSyYh

Profil du candidat :
The candidate must hold a Ph.D in Informatics / Computer science and must have a solid experience in using Semantic Web technologies.

Formation et compétences requises :
The candidate will demonstrate aptitudes or matches with most of the following aspects:
High motivation for scientific research
Strong experience with Semantic Web standards and technologies
Data science and management expertise
Good Web development technical skills with knowledge of JavaScript and modern JS frameworks (Node.js, Reactive.js…), REST/RESTful Web services, JSON
Background knowledge and/or experience in the biological / agronomical context is appreciated
Excellent remote working capabilities (emails, trackers, collaborative tools, etc.)
Excellent aptitude to work with others and engage in collaborations
Excellent writing skills and publication motivation
Perfect English oral and writing skills
Basic knowledge of French with objective to learn the language during the contract
International trips accepted
Autonomy and initiative, take on technical decisions within the project and justification of choices

Adresse d’emploi :
Sophia Antipolis (France)

Document attaché :

Post-doc Machine learning & data science H/F
Dec 1 – Dec 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : CEA
Durée : 1 an + 1 an
Contact : marie-helene.aumeunier@cea.fr
Date limite de publication : 2020-12-01

Contexte :
Dans le cadre d’un projet transverse CEA (PTC– Simulation Numérique) en commun avec la DRF, direction de la Recherche Fondamentale et la DRT, direction de la Recherche Technologique du CEA, le travail demandé s’inscrit dans la mission du CEA de progresser sur la maîtrise de la mesure infrarouge dans les environnements très perturbatifs, entièrement réflectifs et radiatifs. L’application première est sur les machines de fusion (ou tokamak) telle que ITER ou WEST, pour lesquelles la thermographie infrarouge est un diagnostic crucial pour surveiller les composants face au plasma soumis à des forts dépôts de flux de chaleur.
En interface avec les équipes de DRT/LIST/Saclay, expertes en apprentissage automatique appliqué au contrôle non destructif et celles de DRF/IRFM/Cadarache, expertes en Instrumentation optique/photonique et technologie pour la fusion, le travail consistera à développer une méthodologie d’estimation robuste et efficace des températures des éléments d’un tokamak, au moyen de techniques d’apprentissage automatique exploitant des données simulées.
Le candidat aura en charge :
– La construction de bases de données simulées optimales à partir d’une modèle numérique (ou diagnostic synthétique) basé sur un code de tracé de rayon Monte Carlo
– Le développement d’un métamodèle à partir de la base de données synthétiques en utilisant des algorithmes de machine Learning
– La mise en œuvre des tests sur un prototype numérique avant l’application aux données expérimentales du tokamak WEST
Le poste est basé Cadarache mais des missions régulières seront organisées sur les sites du CEA/Saclay

Sujet :
Le sujet de post-doctorat a pour objectif un meilleur contrôle de la mesure infrarouge dans les environnements multiparamétriques, entièrement réflectifs et radiatifs, à travers le développement d’un modèle numérique (« jumeau numérique »)

https://www.emploi.cea.fr/offre-de-emploi/emploi-post-doc-machine-learning-data-science-h-f_13769.aspx

Profil du candidat :
-Ingénieur ou docteur dans le domaine du machine learning / science des données ou Mathématiques appliquées
Maîtrise des outils classiques de machine learning (machines à noyaux, apprentissage profond)
Connaissances souhaitées en modélisation Physique pour la Thermique (équation de la chaleur, phénomène de rayonnement thermique)
Connaissances souhaitées en méthodes numériques pour la simulation (méthodes par éléments finis, méthodes Monte Carlo, pilotage de plans d’expérience en simulation)
Connaissances souhaitées dans le domaine de l’instrumentation et des mesures physiques
Autonomie, initiative et rigueur scientifique
Capacité à intégrer une équipe pluridisciplinaire et à mener un projet collaboratif
Bon niveau d’anglais pour la communication scientifique (présentations orales et rédaction d’articles)

Formation et compétences requises :
Docteur dans le domaine du machine learning / sciences des données ou mathématiques appliquées

Adresse d’emploi :
Saint Paul lez Durance, France, Provence-Côte d’Azur, Bouches du Rhône (13)

Two PostDocs in Data Management or Machine Learning on Online Data Series
Dec 1 – Dec 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIMOS – UMR CNRS
Durée : One year with extens
Contact : mephu@isima.fr
Date limite de publication : 2020-12-01

Contexte :
The Laboratory of Informatics, Modelling and Optimization of the Systems (LIMOS) is a Mixed Unit of Research (UMR 6158) in computing, and more generally in Sciences and Technologies of information and the Communication ( STIC). The LIMOS is mainly connected with the Institute of the Sciences of the Information and their Interactions (INS2I) of the CNRS, and in a secondary way to the Institute of the Sciences of the Engineering and the Systems (INSIS). He has for academic supervision the Clermont Auvergne university and the graduate school of Mines of Saint-Etienne (EMSE), and as partner establishment the Engineer Institute SIGMA. The LIMOS is a member labex IMOBS3 and ClercVolc and federation of search in Environment FR 3467 (which groups 17 laboratories UCA and INRA of the site of Clermont-Ferrand). It is an associate member of the federation MODMAD (Mathematical MODELLING and Decision support, FED 4169) carried by University Jean Monnet of Saint-Etienne.

The two positions in LIMOS are attached to the SIC LIMOS’ axis (Information and Communication Systems) that focuses on the acquisition, transfer, processing and analysis of data. Those data are generally massive, incomplete and heterogeneous. They can be acquired and transmitted through a wireless sensor network, then are stored in a database which can be distributed, and finally they are processed and analyzed in order to identify their properties.

Sujet :
There are two positions and both are time-limited, full-time, one year positions (with the possibility of extension) starting January 2021 or at an agreed upon date (either earlier or later). The positions are financed through the project IT2.fr funded under the “Structuring Projects for Competitiveness” (PSPC) action of the Future Investments Program (PIA). The IT2.fr is the French consortium part of the EU-funded H2020 IT2 project (https://cordis.europa.eu/project/id/875999) that develops next generation extreme UV lithography and explores novel 3D structures.

There are two positions: one on Data Management issues (with Farouk Toumani as mentor) and the other on Machine Learning issues (with Engelbert Mephu Nguifo). Separate applications are not needed to be considered for both positions.
Successful candidates will conduct research on Online Data Series (Stream Data, Time Series) challenges, either on Data Management, or on Machine Learning perspectives, together with Farouk Toumani and/or Engelbert Mephu Nguifo and other members of the DSI (Data, Services and Intelligence) team at LIMOS.
The research will be done under an industrial partnership with Pfeiffer Vacuum SAS company (Annecy, France), responsible for providing online data series.

Profil du candidat :
A strong emphasis will be placed on scientific skills, pedagogical skills, the ability to work both independently and in collaboration with other researchers, and awareness of diversity and equal treatment issues with a particular focus on gender equality.

Formation et compétences requises :
– A doctoral degree or an equivalent foreign degree, in Computer Science or Applied Mathematics.
– The applicant must have a strong background in any of the following areas: Data management or Machine Learning. The candidate should be a highly motivated researcher who can work as well alone as with other researchers

Send your application to to farouk.toumani@uca.fr and/or engelbert.mephu_nguifo@uca.fr with subject line “Postdoc application: Online Data Series.”

The application must include the following documents:
– Curriculum vitae (CV) including relevant experience,
– Copy of diplomas and grades from previous university studies.
– Cover letter (detailing both your previous scientific work experience and your interest in this position, max 2 pages)

Also two recommendation letters should be emailed to farouk.toumani@uca.fr and/or engelbert.mephu_nguifo@uca.fr with subject line “Postdoc Letter of Recommendation: Online Data Series.’’

Your complete application must be received no later than November 30, 2020 , midnight CET/CEST (Central European Time/Central European Summer Time).

Adresse d’emploi :
The positions are each one year, with the possibility of renewal subject to satisfactory performance.
A position as a postdoctoral fellow is a time-limited qualified appointment focusing mainly on research, intended as a first career step after a dissertation.

Lab : LIMOS 1 rue de la cherbarde, 63178 Aubière cedex, (Web : www.limos.fr)
City : Clermont-Ferrand (France)
Possible trips to Annecy (France)

Application deadline: 30 November 2020
Contract: Full-time employment contract for 1 year, and possible extension

URL : https://limos.fr/news_job/26

Dec
13
Sun
2020
Ingénieur.e d’étude en développement et déploiement d’applications
Dec 13 – Dec 14 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : laboratoire ELLIADD (Université de Franche-Comté)
Durée : CDD 6 mois (reconduc
Contact : ioan.roxin@univ-fcomte.fr
Date limite de publication : 2020-12-13

Contexte :
Le laboratoire ELLIADD (Edition, Langages, Littératures, Informatique, Arts, Didactiques, Discours, ) est un laboratoire regroupant 71 enseignant.es-chercheur.ses réuni.es autour d’objets scientifiques situés dans le périmètre des Sciences du langage, des Sciences de l’Information et de la Communication, de la Langue et de la Littérature françaises, de la Littérature comparée et des Arts du spectacle. Il est constitué de cinq pôles thématiques – Arts et Littérature (AL) ; Conception, Création, Médiations (CCM) ; Contextes, Langages, Didactiques (CLD) ; Discours, Texte, Espace Public, Société (DTEPS) ; ERgonomie et COnception des Systèmes (ERCOS) – et de deux programmes transversaux – Archives et humanités numériques ; Sciences de l’éducation et le numérique.

Sujet :
Le poste d’ingénieur.e d’étude en développement et déploiement d’applications est essentiel à la poursuite des activités scientifiques du laboratoire, d’une part pour assurer le maintien et le développement de ses infrastructures informatiques actuelles, d’autre part pour accompagner ses chercheur.ses appartenant en particulier aux pôles DTEPS et AL impliqué.es dans la constitution et l’étude d’archives et de corpus.

Profil du candidat :
Les candidat.es doivent avoir des bases solides dans la conception et le traitement de données textuelles (écrites, orales, numériques natives) ainsi que dans le maintien et le développement d’un parc informatique et technique.

La personne recrutée sera en mesure de mener les missions suivantes :
1) Développement de logiciels pour l’établissement, l’annotation et l’exploration de (très) grands corpus
2) Mise en place des moyens techniques et accompagnement des masterant.es, doctorant.es et chercheur.ses pour la préparation des corpus (numérisation, OCR, etc.)
3) Gestion de la salle informatique des doctorant.es du laboratoire et de son parc technologique, informatique et logiciel
4) Développement et maintien des infrastructures communicationnelles du laboratoire ELLIADD (notamment son site Web)

Formation et compétences requises :
• Connaître le matériel et les logiciels nécessaires au laboratoire, savoir les paramétrer et les adapter aux besoins des chercheur.ses
• Maîtriser les méthodes et techniques de programmation : langages OO, XML, JavaScript, SQL (mySQL), PHP, CSS/HTML …
• Traduire les besoins des chercheur.ses en spécifications techniques
• Savoir transmettre ses connaissances en s’adaptant au niveau des utilisateur.rices
• Savoir définir des priorités pour gérer sa charge de travail

Adresse d’emploi :
UFR Sciences du langage, de l’homme et de la société (SLHS), Université de Franche-Comté, 30-32, rue Mégevand – 25000 Besançon

Document attaché : 202012041613_2020_Poste_IGE_ELLIADD_UFC.pdf

Dec
15
Tue
2020
offre de post-doc représentation de connaissances et internet des objets IRIT 1/12/20
Dec 15 – Dec 16 all-day

Offre en lien avec l’Action/le Réseau : RoD/– — –

Laboratoire/Entreprise : IRIT
Durée : 12 mois
Contact : nathalie.hernandez@irit.fr
Date limite de publication : 2020-12-15

Contexte :
The ANR i-Flooding (e-Flooding) project focuses on risk management particularly in flash floods [Stolf 2019] and aims to limit the impact of floods and reduce the time needed to overcome the damage caused in the affected areas.

In this context, multiple data sources are considered to support and provide decision making. These data are of various types. They are static (land topologies, inhabited areas, population), computed from models or dynamically collected in real time (water level sensors, Vigicrue data or satellite images). These data can be analysed and interpreted from the knowledge of experts in the field (fire departments and participants in crisis meetings) as well as from knowledge from historical past floods.

Semantic web technologies have shown their interest, particularly in the context of the Internet of Things, to erase the heterogeneity of the data manipulated [Sezer 2018]. They allow the integration of knowledge representations that facilitate their automatic processing. Based on recent works such as those presented in [Sermet, 2019], one of the objectives of this post-doctoral work will be to propose an approach aimed at building and updating a knowledge graph from the data available in the two territories studied. This knowledge graph could be used to enrich the algorithm solving the routing problem of firefighters’ vehicles already proposed by the team [Dubois 2020]. Another objective will be to use this knowledge graph to help the firefighters analyze the crisis situation during their first reconnaissance on the ground. It will give the opportunity to confront the relevance of automatic reasoning based on technical sensors and that of the firefighter based on his observations, thus providing guidance to the actors of the crisis in their decisions. Finally, in order to promote rapid decision-making, the possibility of proposing an infrastructure to decentralize decisions such as the one presented in [Seydoux 2020] could be explored.

Sermet, Y., & Demir, I. Towards an information centric flood ontology for information management and communication. Earth Science Informatics, 12(4), 541-551, 2019.

Seydoux, N., Drira, K., Hernandez, N., & Monteil, T. EDR: A Generic Approach for the Distribution of Rule-Based Reasoning in a Cloud-Fog continuum.Semantic Web, Volume 11, Number 4, 2020

SEZER, Omer Berat, DOGDU, Erdogan, et OZBAYOGLU, Ahmet Murat. Context-aware computing, learning, and big data in Internet of Things: a survey. IEEE Internet of Things Journal, vol. 5, no 1, p. 1-27, 2018.

Dubois, F., Renaud-Goud, R., Stolf, P. Capacitated Vehicle Routing Problem under Deadlines. International Conference on Information and Communication Technologies for Disaster Management (ICT-DM 2019), Paris, 18/12/19-20/12/19, IEEE (Eds.), 2020.

Stolf, P., Pierson, JM., Sayah, A., Da Costa, G., Renaud-Goud P. e-Flooding: Crisis Management Through Two Temporal Loops. Hawai International Conference on Systems Science (HICSS 2019), Maui, Hawai, 08/01/19-11/01/19, University of Hawaï at Manoa, p. 2985-2994, janvier 2019.

Sujet :
The candidate will contribute to i-Nondations (e-Flooding) an ongoing research project on Flood Management. S/he will develop hypotheses, set-up experiments and write articles in collaboration with the other members involved in the project. One of his/her first tasks will be to draw up, in collaboration with the project members, a detailed work plan for her/his postdoctoral work at IRIT, based on his/her recent research experience.

Profil du candidat :
JOB REQUIREMENTS

The successful candidate will be located in IRIT, Toulouse under the supervision of Patricia Stolf and Nathalie Hernandez at the frontier of the following three areas:

1- Knowledge Representation and Reasoning

2- Semantic Web of Things

3- Machine learning

The main requirements for the positions are:

– a Ph.D. in computer science with a focus on Artificial Intelligence AND or IN either semantic web technologies, reasoning or distributed decisions.

– a good publication record,

– strong programming skills

– using either French or English as working language, with a sufficient mastering of the latter for international collaboration.

Formation et compétences requises :
ADDITIONAL INFORMATION

Gross salary: between 3000 and 4000 € per month according to experience

Duration: 12 months

Start date: no later than December 1, 2020.

TO APPLY

Please send:

* a letter of motivation

* a curriculum vitae, including a list of publications

* the names and contact information of at least two referees

to both:

Patricia Stolf (patricia.stolf@irit.fr) Nathalie Hernandez (nathalie.hernandez@irit.fr)

Application deadline: November 30th, 2020

Adresse d’emploi :
Route de Narbonne, 31330 Toulouse

Dec
22
Tue
2020
Post-doctorat: Expert-e des données / Data-scientist (H/F)
Dec 22 – Dec 23 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Employeur : Université de Tours; Lieu d’exercice
Durée : 10-11 mois
Contact : aladine.chetouani@univ-orleans.fr
Date limite de publication : 2020-12-22

Contexte :
Au sein d’Intelligence des Patrimoines et en lien étroit avec l’équipe du laboratoire IV-PRISME (Laboratoire Pluridisciplinaire de Recherche Ingénierie des Systèmes, Mécanique, Énergétique – université d’Orléans), la mission principale de l’ingénieur de recherche sera d’effectuer une analyse approfondie de données récoltées dans le cadre d’étude oculométrique visant à étudier le comportement des publics lors de la découverte de tableaux dans le cadre de l’APR-IR TIC-ART (Traitement des Images au serviCe de l’ART – cf. encart). L’ingénieur travaillera en lien avec l’équipe numérique du programme ARD Intelligence des Patrimoines et les équipes du projet TIC-ART dont le porteur scientifique du projet, Aladine Chetouani.

Sujet :
Cette mission principale sera déclinée de la manière suivante :
La personne recrutée sera chargée de veiller à l’élaboration de la base de données avec le doctorant, d’analyser la cohérence des données récoltées, d’analyser en profondeur les données oculométriques en confrontant les différents publics afin d’identifier les différents comportements.

Profil du candidat :
Compétences requises
• Capacités d’organisation
• Connaissances des outils statistiques – analyse de données
• Compétences informatiques (langage de programmation : Python, Matlab)
• Anglais

Profil du poste
Niveau d’études : Doctorat ayant trait à l’analyse de données – data-scientist. Une expérience en manipulation de données oculométriques sera fortement appréciée. Doté(e) d’une grande capacité à apprendre et à s’adapter à un environnement en renouvellement constant, le(/a) candidat(e) recherché(e) devra contribuer au développement d’un nouveau programme de recherche et d’innovation inédit et faire preuve de créativité et de dynamisme lui permettant de mener à bien ses missions. Rigoureux(euse), le(/a) candidat(e) saura travailler en équipe et être réactif face aux demandes. Il/elle aura le sens du service et de l’organisation.

Formation et compétences requises :
Compétences requises:
• Capacités d’organisation
• Connaissances des outils statistiques – analyse de données
• Compétences informatiques (langage de programmation : Python, Matlab)
• Traitement d’images et machine learning
• Anglais

Adresse d’emploi :
Candidatures: Envoyer CV et lettre de motivation (par courriel uniquement à l’adresse e-mail indiquée) à :
Benoist PIERRE, Directeur du CESR et du programme ARD Intelligence des Patrimoines | intelligencedespatrimoines@univ-tours.fr
Aladine Chetouni, Porteur du projet TIC-ART |aladine.chetouani@univ-orleans.fr

Document attaché : 202012221652_CESR_offre_emploi_TIC-ART.pdf

Dec
31
Thu
2020
Enseignant Chercheur en Informatique
Dec 31 2020 – Jan 1 2021 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : FACULTE DE GESTION, ECONOMIE ET SCIENCES – Institu
Durée : CDI
Contact : julie.jacques@univ-catholille.fr
Date limite de publication : 2020-12-31

Contexte :
La Faculté de Gestion, Economie et Sciences (FGES) recrute un(e) Enseignant-Chercheur Docteur en Informatique, en CDI, dans le cadre d’une création de poste à pourvoir dès que possible.
LA FGES offre 8 licences, 10 masters et des licences professionnelles en sciences, gestion, comptabilité et économie, des classes CUPGE en double cursus. Elle accueille chaque année 1700 étudiants. L’accompagnement des étudiants (pédagogie active, vie étudiante, développement personnel et professionnalisation) et l’internationalisation s’inscrivent dans la mission plus large de l’Université de former des professionnels capables de s’adapter, d’innover et de devenir des citoyens acteurs et responsables. La diffusion de la culture scientifique et l’ouverture vers les milieux socio-économiques est aussi une priorité à travers l’enseignement, la recherche et les études. L’unité de recherche de la FGES est consacrée à la ville intelligente et durable définie de manière large, avec trois grands axes entrepreneuriat, transition numérique/énergétique et écologie urbaine. Elle regroupe une trentaine de membres.
L’Université Catholique de Lille, riche de ses 35 000 étudiants, est une université pluridisciplinaire avec cinq Facultés (Droit ; Lettres et Sciences Humaines ; Médecine et Maïeutique ; Gestion, Economie & Sciences ; Théologie), 20 Écoles et Instituts dont des écoles médicales et paramédicales, sociales, de cadres du tertiaire, un Groupe Hospitalier, et en tout, près de 50 équipes de recherche regroupant 650 enseignant chercheurs.
Le/la candidat(e) retenu(e) pourra mener ses propres recherches tout en participant au développement de l’unité de recherche de la FGES.
Une expérience en matière d’enseignement sera tout particulièrement appréciée. Il ou elle assurera des cours de licence et de master.

Sujet :
Activités d’enseignement et de suivi des étudiants:
− Assurer des enseignements dans la filière informatique (de la L1 au M2) : cours, TD, encadrement de projets, séminaires et conférences en anglais et/ou en français.
− Assurer des enseignements en informatique dans des filières transversales (Ex : Programmation Python) : cours, TD, séminaires et conférences en anglais et/ou en français.
− Contribuer à l’évolution des filières de formation hors informatique en y apportant si nécessaire la dimension numérique, dans une optique d’adéquation avec l’évolution des métiers et des compétences.
− Assurer l’ensemble des obligations afférentes, telles que corrections d’épreuves écrites et/ou orales de contrôle continu et d’examen, la préparation des supports d’intervention et leur mise à disposition sur le centre de ressources pédagogiques.
− Assurer toutes autres charges liées à l’enseignement : le tutorat, le suivi de l’étudiant, l’encadrement et l’organisation de projets et travaux d’étudiants.
− Participation aux évaluations de stages (correction de rapports et soutenance)
− Contribuer à la création de nouvelles formations (définition des contenus et formats pédagogiques, interventions, suivi / recrutement des étudiants et enseignants.
 Recherche :
La personne retenue devra pouvoir collaborer à des projets sur les Smart and Sustainable Cities à plus ou moins court terme.
La personne retenue sera invitée à développer des travaux en coopération, voire en interdisciplinarité, avec les autres membres de l’unité de recherche.

Profil du candidat :
Le candidat ou la candidate devra être titulaire d’un doctorat en informatique. Tous les domaines de spécialité en informatique seront considérés.

Une sensibilité particulière aux enseignements liés à la gestion et au management serait un plus.

Le/la candidat(e) retenu(e) devra démontrer une solide expérience de recherche (avec au minimum deux publications sur les quatre dernières années).

Formation et compétences requises :
Les compétences et qualités suivantes sont requises :
• Capacité à prendre en compte un environnement et à le faire évoluer.
• Capacité à travailler en équipe pluridisciplinaire
• Disponibilité, sens de l’engagement et des responsabilités.

Adresse d’emploi :
l’Institut Catholique de Lille – 60 Bd Vauban – BP 109 – 59016 Lille Cedex

Document attaché : 202012101359_Enseignant chercheur en informatique FGES.pdf

Ingénierie dirigée par les modèles et gestion des données de la recherche (niveau CDO)
Dec 31 2020 – Jan 1 2021 all-day

Offre en lien avec l’Action/le Réseau : – — –/Innovation

Laboratoire/Entreprise : DSI / INSERM
Durée : 24 mois
Contact : isabelle.perseil@inserm.fr
Date limite de publication : 2020-12-31

Contexte :
Le projet Européen EOSC-Life contribue à faire progresser les l’application des principes FAIR (Findable, Accessible, Interoperable, Reusable) dans le domaine des sciences de la vie. Ces principes définissent les fondements d’un partage des données faciles à trouver, accessibles, interopérables et réutilisables) devenu nécessaire pour pouvoir pratiquer la recherche sur de larges bases de données.
Dans ce projet, le DSI de l’Inserm travaille en étroite collaboration avec treize grandes infrastructures européennes en sciences de la vie pour mettre à disposition de toutes les communautés en science de la vie des services de FAIRification et de provenance des données. Notre objectif principal est de réaliser ces services dans le respect du budget et des délais impartis par le projet qui est d’une durée de 4 ans.
Au sein du Worpackage (6) que nous pilotons, nous sommes en particulier co-responsables de la tâche (6.3) dédiée à la Provenance des données de recherche.
Cette tâche consiste à développer un modèle de provenance dynamique pour le domaine des sciences de la vie dans le but d’améliorer fondamentalement les problèmes de reproductibilité que les sciences de la vie connaissent depuis deux décennies. Le manque de reproductibilité et donc de réutilisation réelle des données s’oppose finalement aux principes FAIR. Le développement et la normalisation du modèle de provenance devraient permettre la génération automatique de la provenance détaillée tout au long du workflow depuis l’acquisition du matériel biologique jusqu’aux méthodes d’analyse et au traitement des données. Idéalement, si ces normes sont développées et adoptées, les systèmes d’information des laboratoires ou les instruments d’analyse devraient générer automatiquement la partie correspondante des informations sur la provenance et celle-ci serait liée à la chaîne globale des informations sur la provenance. Actuellement, les travaux sont principalement menés en collaboration avec le groupe de travail 5 du comité technique 276 de l’ISO “Biotechnologie” (TC/276) sur l'”Intégration des données” (GT5).
• Le le/la chef-fe de projet rejoindra le DSI pour travailler à la réalisation d’un métamodèle standard (ou « Profil UML ») dédié à la provenance des données de recherche en sciences de la vie, instanciable sur tous les sous-domaines et implémentable sur les outils proposés par le projet EOSC-Life.
Sa mission sera de traduire la partie de la norme ISO consacrée au modèle commun de la Provenance (lui même basé sur le standard W3C PROV) et développée par le partenaire BBMRI en un méta modèle UML instanciable et implémentable.

• Il aura pour rôle de promouvoir et diffuser les principes FAIR (incluant la Provenance des données) à l’Inserm, sous la responsabilité du Chief Data Officer de l ‘Inserm.

Sujet :
Activités principales :
• Contribuer aux avancées de la Norme ISO 276 développée dans le cadre du Projet
EOSC-Life, sur la partie « Common Provenance Model
• Se former à l’utilisation de l’outil de réalisation de profil UML, PapyrusUML
• Développer un métamodèle générique UML à partir de la Norme ISO 276
• Instancier le métamodèle générique pour plusieurs sous-domaines (génomique…)
• Diffuser les principes FAIR, par le biais d’ateliers et de formations
• Diffuser les résultats du modèle générique de provenance, par le biais d’ateliers et de formations
• Double reporting au WP6 leader du projet EOSC-Life (CP VIS) et au Chief Data Officer de l’Inserm

Activités associées :
• Participation aux réunions du projet EOSC-Life (téléphone/visioconférence) et réunions de management des données de recherche Inserm
• Rédaction de rapports d’avancement, forte contribution aux livrables du projet EOSC-Life
• Participation à la rédaction de documents de référence pour le Chief Data Officer

Profil du candidat :
Connaissances :
• Formation générale en ingénierie logicielle
• Maîtrise du langage de modélisation UML (et autres langages de modélisation)
• Bonnes connaissance de l’ingénierie des modèles (MBE), aussi bien la transformation de modèles que la génération de code sûr
• Connaissance d’environnements de programmation comme Eclipse
• Formation générale en science des données
• Forte sensibilisation à la science ouverte (FAIR data)
• Notions de sécurité et confidentialité des données

Savoir faire :
• Maîtriser l’ingénierie des modèles
• Maîtriser la science des données
• Savoir anticiper les besoins, prioriser et planifier les activités
• Savoir communiquer, être à l’écoute et s’adapter à son interlocuteur
• Anglais courant

Formation et compétences requises :
• Doctorat ou diplôme d’ingénieur, domaine informatique, Ingénierie dirigée par les modèles

• Expérience préalable de 5 ans minimum dans le domaine de la recherche scientifique (sur de gros projets nationaux ou européens)

Adresse d’emploi :
DSI de l’INSERM
13 rue Watt
75013 Paris

Document attaché : 202011252132_DSI – Ingénieur informatique – 2021.pdf

Lead software developer – Brain image analysis
Dec 31 2020 – Jan 1 2021 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ARAMIS Lab (Institut du Cerveau / Inria)
Durée : CDD
Contact : ninon.burgos@icm-institute.org
Date limite de publication : 2020-12-31

Contexte :
The ARAMIS lab develops the Open Source software Clinica (www.clinica.run), an end-to-end solution for brain image analysis. Clinica allows users to easily analyze large-scale clinical studies with advanced computational tools. To that purpose, it integrates tools for data management, image preprocessing for different modalities (anatomical MRI, diffusion MRI, PET), feature extraction, machine learning and statistics. Clinica is distributed freely to the scientific community and has 400+ users worldwide. It has been used to produce high impact medical publications which have advanced the understanding of neurodegenerative diseases such as Alzheimer’s disease, fronto-temporal dementia and amyotrophic lateral sclerosis. It is also widely used by researchers who apply machine learning to the diagnosis of brain diseases.

– Samper-González J, Burgos N, Bottani S, …, Durrleman S, Evgeniou T, Colliot O, Reproducible evaluation of classification methods in Alzheimer’s disease: Framework and application to MRI and PET data. NeuroImage, 183:504–21,2018.
– Bertrand A, Wen J, Rinaldi D, Houot M, Sayah S, Camuzat A, Fournier C, Fontanella S, Routier A, Couratier P, Pasquier F, Habert M-O, Hannequin D, Martinaud O, Caroppo P, Levy R, Dubois B, Brice A, Durrleman S, Colliot O, and Le Ber I, Early cognitive, structural and microstructural changes in c9orf72 presymptomatic carriers before 40 years of age, JAMA Neurology, 75(2):236-245, 2018
– Wen J, Thibeau-Sutre E, Diaz-Melo M, …, Durrleman S, Burgos N, Colliot O, Convolutional Neural Networks for Classification of Alzheimer’s Disease: Overview and Reproducible Evaluation. Medical Image Analysis, 63: 101694, 2020

Sujet :
You will be the lead software developer of Clinica. As such, you will be in charge of:
– development of new features (image processing pipelines, traceability, visualization),
– validation of new analytic tools,
– project management (task follow-up, issue tracking, meeting organization),
– software maintenance,
– user support and animation of the community
– contribution to training and dissemination organized with the other engineers of the Inria center
In addition, you will be presenting the software at international scientific conferences and other events (organized for instance by Inria, ICM, CNRS…). Finally, you will contribute to ambitious medical studies, by deploying Clinica on large databases of patients, contributing to the interpretation of results and providing assistance to medical users (internal to the lab and external collaborators).

Profil du candidat :
Engineer with experience in medical image processing and Python development. An interest in neuroscience applications, as well as a curious and eager to learn personality will be highly appreciated.

Formation et compétences requises :
– PhD degree or Master+experience in the field of medical imaging
– Strong programming skills in Python
– Knowledge of digital image processing and medical imaging is mandatory
– Experience with neuroimaging data (and with neuroimage analysis software, e.g. Nipype, SPM, Freesurfer) would be a strong plus
– Good understanding of the software development process and tools (Git, continuous integration, tests)
– Excellent planning and organizational skills
– Good writing skills (documentation, website, scientific articles)
– Good relational and communication skills to interact with users and lab members

Adresse d’emploi :
Institut du Cerveau
Hôpital de la Pitié-Salpêtrière
47 boulevard de l’hôpital
75013 Paris

Document attaché : 202009111249_clinica_neuroimaging-v2.pdf

Post-doc position at University of Grenoble-Alps – LIG-MRIM
Dec 31 2020 – Jan 1 2021 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire d’Informatique de Grenoble (LIG)
Durée : 12 mois
Contact : Georges.Quenot@imag.fr
Date limite de publication : 2020-12-31

Contexte :
The MRIM research team, in collaboration with a start-up, is looking for a Post-doc specialized in AI applied to the recognition of objects in images for medical screening. The disease that interests us is manifested by visible clinical signs. The object recognition system will detect and analyze medical images in “standard” 2D photographs taken with consumer digital cameras (ex: Smartphone), which will be sent to a remote AI platform that will perform the image processing for medical screening.

You will work in the MRIM team that has expertise in the field of AI and Image Processing for Information Access. The project deals with a major international health concern with a strong innovative part that should lead to major publications in the medical domain. Through this project, you will have the opportunity to work on real medical data. This research program aims to demonstrate the feasibility and relevance of our digital approach in large-scale, general public screening at low cost.

Sujet :
The objective of this post-doc is to develop a system for making a medical screening from images taken using a standard color camera. Given a training collection of images annotated according to the presence or the absence of a pathology and its level of development if present, the system should be trained to be able make a first prediction on unseen images to predict whether the patient should see a doctor. The goal of the project is not only to produce a system able to do the pre-diagnosis task but also to provide explanations regarding how the conclusion was reached. For this, the system should be able to identify the types of elements or of attributes that it uses for making the decisions and how these are used for that, ideally in terms of visual clues and logical rules on them. The scientific aspects will be mostly related to the explainability part while classical deep learning-based methods will be used for the decision part. The start-up will provide the training and test images, as well as all the expertise related to the targeted pathology.

Profil du candidat :
PhD in Computer Science and/or Applied Mathematics for Computer Science.

Formation et compétences requises :
PhD in Computer Science and/or Applied Mathematics for Computer Science.

Strong knowledge in Machine Learning.
Good programming skills, experience of deep learning frameworks (ex: PyTorch, TensorFlow, etc.)
Image processing, Computer vision in theory and practice.

Adresse d’emploi :
Laboratoire d’Informatique de Grenoble.
http://www.liglab.fr/