CDD Ingenieur web sémantique (Schema.org)

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Institut Francais de Bioinformatique
Durée : 12 mois
Contact : alban.gaignard@univ-nantes.fr
Date limite de publication : 2021-10-03

Contexte :
L’Institut Français de Bioinformatique (IFB) [1] recrute un ingénieur d’études pour le développement de standards (Schema.org) et l’indexation de données en sciences de la vie.

Il s’agit d’un CDD de 12 mois, renouvelable jusqu’à 24 mois, dans un laboratoire de recherche Nantais (plateforme de bioinformatique BiRD [2], Institut du Thorax, LS2N).

Ce poste pourra intéresser de jeunes diplômés souhaitant développer de nouvelles compétences sur la FAIRification de données et logiciels, ou bien des ingénieurs plus expérimentés souhaitant contribuer à la standardisation de métadonnées à l’échelle européenne (Elixir [3], Bioschemas [4]).

Les détails de l’offre sont sur le site du CNRS : https://bit.ly/3jwUtRw

[1] https://www.france-bioinformatique.fr
[2] https://pf-bird.univ-nantes.fr
[3] https://elixir-europe.org
[4] https://bioschemas.org

Sujet :
L’ingénieur-e sera en charge de:

1) développer un outil logiciel d’extraction de métadonnées Bioschemas [2] et d’assemblage de jeux de données ouverts et requêtables via les standards du web sémantique,

2) proposer un catalogue de requête combinant des méta-données Bioschemas de différente nature (e.g. entités biologiques, matériel de formation, algorithmes, workflows, etc.).

Profil du candidat :
Informaticien de niveau minimum Bac + 5 (Master, Master Pro, ingénieur, …) ou expérience équivalente.

Une formation de bioinformaticien avec une forte composante en développement logiciel pourra également convenir.

Formation et compétences requises :
De très bonnes connaissances en développement logiciel sont attendues. Une expérience en développement web ou de base de données est un plus. Une expérience dans le développement collaboratif de ressources ouvertes est également un plus.

Connaissances et aptitudes professionnelles

– capacités d’abstraction et de modélisation
– conception et qualité logicielle (Model/Test Driven Development)
– maîtrise d’un des langages de programmation: Java, Python
– connaissance de git pour le développement collaboratif
– connaissance des formats et protocoles d’échange de données sur le web (e.g. JSON, JSON-LD, YAML, HTTP)
– capacité de synthèse et rédactionnelle, curiosité, initiative, sens de l’organisation et du travail en équipe
– bonne maîtrise de l’anglais oral et écrit
– capacités de travail à distance

Connaissances additionnelles appréciées
– modélisation et représentation des connaissances
– standards et technologies du web sémantique (OWL, RDF, JSON-LD)

Adresse d’emploi :
Institut du Thorax, 8 quai Moncousu, 44000 Nantes

Injecting Knowledge into Multimedia Entity Representation

Offre en lien avec l’Action/le Réseau : DOING/– — –

Laboratoire/Entreprise : CEA List and LISN
Durée : 18 months
Contact : herve.le-borgne@cea.fr
Date limite de publication : 2021-10-03

Contexte :
Exploiting multimedia content often relies on the correct identification of entities in text andimages. A major difficulty for understanding a multimedia content lies in its ambiguity with regard to the actual user needs, for instance when identifying an entity from a given textual mention or matching a visual object to a query expressed through language [ADJ20a,ADJ20b].

The MEERQAT (https://www.meerqat.fr) project addresses the problem of analyzing ambiguous visual and textual content by learning and combining their representations and by taking into account the existing knowledge about entities. It aims at solving the Multimedia Question Answering (MQA) task, which requires answering a textual question associated with a visual input like an image, given a knowledge base (KB) containing millions of unique entities and associated text. The post-doc specifically addresses the problem of injecting knowledge into multimodal entities to be able to answer questions that relate to them. Other partners of the project work on the visual, textual and KB representation, and on the entity disambiguation.

Sujet :
Entities can be represented by different modalities, in particular by visual and textual content. In a common space, an entity can thus be represented by several vectors, that need to be combined into a unique representation that reflects the similarity of the related entities. In such a context, a promising approach consists of learning a visual representation from natural language supervision [RAD21] relying on large datasets by a simple learning strategy based on contrastive predictive coding [OOR18], adapted to text and visual modalities [ZHA20]. The learned representation allows to address multiple cross-modal tasks and provide a large-scale vocabulary that is adapted to general audience in a given language. It exhibits state of the art performance on several tasks and can even exceed humans on certain tasks. However, it does not include any structural information from a knowledge base. The main task of the post doc will thus consist in injecting such prior knowledge into the entity representation to address Multimedia Question Answering. Some approaches were recently proposed to do so in the context of caption generation [GOE20].

We consider entities such as persons, places, objects or organizations (NGOs, companies…). Depending on the type of an entity, the information to take into account in its representation is not obvious. If a person can probably be associated with a couple of mentions and images, it becomes less obvious for other types of entities. For instance, a company can be associated with its logo, but also with its main products or even its main managers (CEO, CTO . . . ). In the same vein, a location can be represented by many pictures, and a large one such as a city by some emblematic buildings or places. The second task of the post-doc will consist to determine the appropriate information to include in the representation of a given entity, depending on its type.

Profil du candidat :
* PhD in Natural Language Processing, Computer Vision, Machine Learning or other relevant fields
* Strong publication record, with accepted articles in top-tier conferences and journals of the domain
* Solid programming skills (pytorch/tensorflow). Publicly available project will be appreciated
* Ability to communicate and collaborate at the highest technical level
* Experience on using GPUs on a supercomputer (e.g. with SLURM or similar tool) will be appreciated

Formation et compétences requises :
PhD in Natural Language Processing, Computer Vision, Machine Learning or other relevant fields

Adresse d’emploi :
The post-doc will be supervised by CEA and LISN. The candidate will be hired by CEA (Palaiseau, near Paris, France) for a 18-months post-doc. The LISN is located close to CEA on the Paris-Saclay University Campus.

The salary depends on qualifications and experience. This will include social coverage (health, unemployment, retirement).

The postdoc will have access to large supercomputers equipped with multiple GPUs and large storage for experiments, in addition to a professional laptop.

To apply to the position, send a CV (including publication list or a URL pointing to it, such as Google Scholar) and a cover letter to Hervé Le Borgne , Olivier Ferret , Sahar Ghannay and Anne Vilnat .

Postdoc position for weather forecast generation with Deep Learning

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Centre National de Recherche Météorologique (CNRM)
Durée : 27 months
Contact : laure.raynaud@meteo.fr
Date limite de publication : 2021-10-31

Contexte :
This Post-doctoral position is part of the POESY project funded by the French National Research Agency.

Sujet :
High-Impact Weather (HIW) events have devastating effects on society, causing human losses, degradation of infrastructures and large economic impacts. Severe precipitating events, damaging thunderstorms and strong winds are among the most impacting events from a meteorological point of view, with various severe indirect effects such as flooding, landslides and marine submersion. Being rare, HIW events lie in the tail of climatological distribution of weather events. Although meteorological services such as Météo-France have done significant progress in predicting weather for the last decades, accurately predicting the occurrence, intensity, location and timing of HIW still remains challenging.
Currently operational weather forecasts rely on physically-based modelling approaches, and Numerical Weather Prediction (NWP) models are operated daily to determine the future atmospheric states and the risk of HIW. In particular, Ensemble prediction systems (EPSs) aim at sampling the probability distribution of future atmospheric states. They consist in running several NWP forecasts in order to account for the different sources of uncertainty. At Météo-France, the operational AROME-EPS, which runs 16 perturbed forecasts with a spatial resolution of 1.3km, is used to anticipate the risk of HIW. However, properly capturing the associated uncertainty requires very high resolution (few hundred meters) large-size (few hundred members) ensembles. Nonetheless, such enhanced systems are currently unfeasible for operational NWP because of the associated computational cost.
In this context, the main objective of the POESY project is to explore the scientific feasibility and relevance of an innovative hybrid EPS design, combining standard physical modelling with computationally-efficient Artificial Intelligence (AI) techniques, in order to produce disruptive probabilistic forecasts for high-impact weather.
The goal of this 27-month post-doctoral position is to improve the representation of forecast probability distributions by increasing the AROME-EPS sampling from O(10) to 0(1000) forecasts thanks to complementary AI-generated forecasts. For that purpose, physically-constrained deep generative models such as GANs and Variational AutoEncoders will be developed and evaluated. Besombes et al. (2021) provides a first example of GAN-based weather scenario. A crucial part of the work will be to adapt off-the-shelf learning architectures to the particularities of this geophysical problem. A specific attention will be paid to the following points : the learning of extremes, ensuring spatial, temporal and physical consistencies in the generated forecasts, mode collapse problem.

Profil du candidat :
PhD .
A strong background in deep learning algorithms, in particular convolutional neural networks and deep generative models
Experience in geophysical problems would be appreciated, at least a strong interest for applied research in atmospheric physics is highly recommended.

Formation et compétences requises :
The ideal candidate would have the following qualifications :
– Proficiency with Python programming and AI librairies
– Experience with processing large volumes of data
– Experience of working in a Linux-based environment
– Aptitude for scientific work, written and oral communication in English, meetings abroad possible
– A scientific curiosity, autonomy, rigor in the interpretation of the results

Adresse d’emploi :
CNRM, 42 Avenue Gaspard Coriolis, Toulouse, France.

Document attaché : 202109071343_PostdocPOESY.pdf

Data-based monitoring using template-based probability distributions

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRT SystemX
Durée : 3 ans
Contact : johanna.baro@irt-systemx.fr
Date limite de publication : 2021-11-30

Contexte :
It is undeniable that artificial intelligence is now critical to the competitiveness of French industry by contributing to innovation-based growth. In this context, the integration and/or safe use of artificial intelligence-based technologies is essential to support engineering, industrial production and the development of innovative products and services. « Industrialization of artificial intelligence for mission-critical systems » is one of the major objectives of the national Grand Défi Trust IA. This industrialization imperative requires providing an environment to support design, validation and testing. It will focus on reinforcing confidence, explainability, and even allow the certification of artificial intelligence. A group of major industrialists in the fields of Defense, Transportation and Energy has been formed to present the roadmap of this program confiance.ai, with the support of leading academic partners. The SystemX Technological Research Institute is coordinating this program.

The IRT SystemX is located at the heart of the Paris-Saclay scientific campus of world excellence, and has the ambitions of a world-class technological research center in the field of digital systems engineering. Its mission is to generate new knowledge and technological solutions based on breakthroughs in digital engineering and to disseminate its skills in all economic sectors.

The subject of the thesis has been defined by the consortium gathered in the framework of the confiance.ai program and more precisely in the EC3 project. The direction of the thesis will be ensured by Goran Frehse of the Computer Science and Systems Engineering (U2IS) laboratory from ENSTA, Paris and the thesis will be registered at the doctoral school IP Paris of Institut Polytechnique de Paris (ED 626).

The U2IS laboratory, led by David Filliat, is developing research in the field of design and reliability of systems integrating autonomous decision-making processes with applications in intelligent transport, robotics, defense and energy. The laboratory brings together the research activities of the ENSTA Paris School in computer science, robotics, vision, embedded systems, signal and image processing and hybrid system design and analysis.

In addition, the doctoral student will benefit from a scientific supervision in the confidence.ai program by Johanna BARO, the referent supervisor in the EC3 project. Within the IRT SystemX, the doctoral student will be hierarchically attached to the scientific axis « Sciences des données & Interaction » whose manager is Georges Hébrail.

Sujet :
The detailed subject is avalaible here : https://www.irt-systemx.fr/recrutement/data-based-monitoring-template-based-probability-distributions/

This PhD subject relates to the online monitoring of AI models set up to detect at runtime any deviation of an AI component deployed in operation from the specified expected behavior or from safe operation properties.

The challenge to address in this thesis work is to introduce machine learning technique in a hybrid approach mixing data and model from control theory to monitor the state of the system in real-time. Beforehand, different types of anomaly profiles need to be formalized in order to capture the desired properties and trustworthiness guarantees. The goal is to develop a hybrid data-driven and model-based approach using envelope based-models to detect abnormal behavior based on extrapolation in a runtime monitoring system.

Profil du candidat :
Candidates must hold a master or engineering degree with a strong academic background related to either control theory or machine learning and should be ready to deep dive into the other domain.

Knowledge and know-how:
– Fundamentals of feedback control (Kalman filters, linear systems)
– Basic knowledge of statistics and probability theory
– Basics in any of the programming languages Python, C/C++, or Matlab

Application procedure : https://www.irt-systemx.fr/recrutement/data-based-monitoring-template-based-probability-distributions/

Formation et compétences requises :
Candidates must hold a master or engineering degree with a strong academic background related to either control theory or machine learning and should be ready to deep dive into the other domain.

Knowledge and know-how:
– Fundamentals of feedback control (Kalman filters, linear systems)
– Basic knowledge of statistics and probability theory
– Basics in any of the programming languages Python, C/C++, or Matlab

Application procedure : https://www.irt-systemx.fr/recrutement/data-based-monitoring-template-based-probability-distributions/

Adresse d’emploi :
The position is based in Palaiseau (IRT SystemX). The PhD student may be required to travel to the laboratory.

Fouille de données/Machine Learning pour la prédiction du comportement de courses de bus

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LS2N, Polytech’Nantes
Durée : 12 mois
Contact : francois.queyroi@univ-nantes.fr
Date limite de publication : 2022-03-31

Contexte :
Ce contrat s’intègre dans le cadre du projet R&D Collaborative Pays de la Loire SIMULBUS. Ce projet implique les équipes DUKe et PSI du LS2N et les entreprises A1 Statistiques et TELLAE.

Le développement des technologies Big Data et la prolifération des données des réseaux de transports publics ont favorisé le développement de solutions pour l’analyse des temps de parcours et de la performance des réseaux. Les données de base sont celles fournies par les Systèmes d’Aide à l’Exploitation (SAE) des réseaux de transports publics. Les données plus précises spatialement ne sont pas exploitées. Le croisement des sources de données est de plus un élément absent de ces technologies qui s’appliquent à restituer une source de données sans faire le lien avec le contexte de ligne (voirie, contexte urbain, météo, etc). Enfin, ces technologies sont également déconnectées des approches de simulation et fournissent simplement des analyses sans pouvoir évaluer de nouveaux scénarios de gestion.
L’objectif du projet est de croiser des données variées en termes de format, structure ou représentation en termes de nature (données temporelles, déterminants géographiques, voirie, météo, etc.), mais également des données avec une hétérogénéité sémantique afin de créer de modèles riches expliquant avec fiabilité la ponctualité et la régularité d’une course.

Sujet :
Le ou la candidat(e) retenu(e) devra participer activement à la proposition et à l’implémentation d’une approche combinant la fouille de motifs séquentiels et les modèles de mélanges de régressions, intégrant des données variées, pour modéliser une course d’un bus et prédire son comportement. La validation des modèles obtenus sera réalisée en partie à l’aide de la simulation dans un processus itératif et incrémental. Les modèles développés dans ce travail seront testées sur des données de deux de réseaux de transports publics : SEMITAN exploitant du réseau de l’agglomération nantaise et RTM exploitant du réseau de la métropole de Marseille.

Le ou la candidat(e) retenu(e) participera aussi à la vie du projet :

– organisation des réunions,
– interactions avec les différents partenaires,
– participation à la rédaction des livrables du projet (rapport, publications scientifiques, etc.).

Au LS2N, DUKe, le.a post-doctorant.a sera encadré.e par Mounira Harzallah et François Queyroi, en collaboration avec Bruno Rivière de A1 Statistiques et Vincent Leblond de TELLAE.

Profil du candidat :
Doctorat en Informatique/Mathématiques, avec des compétences en fouille de données/machine learning. Une expérience en clustering à base de modèles et aspects temporels serait un vrai plus.

Calendrier: Début 01/01/2022 (durée 12 mois).

Formation et compétences requises :
Doctorat en Informatique/Mathématiques, avec des compétences en fouille de données/machine learning. Une expérience en clustering à base de modèles et aspects temporels serait un vrai plus.

Calendrier: Début 01/01/2022 (durée 12 mois).

Adresse d’emploi :
Polytech’Nantes – Site de la Chantrerie rue Christian Pauc BP 50609 44306 Nantes cedex 3

Document attaché : 202109061509_simulbus_offre_postdoc_2022.pdf

Réunion ComDir

(i) journée du 8/10
(ii) fiches madics
(iii) page formation.

MCF et Enseignant contractuels en informatique

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire ETIS (UMR 8051) – CY Cergy Paris Unive
Durée : 1 an
Contact : dan.vodislav@u-cergy.fr
Date limite de publication : 2021-09-18

Contexte :
Recrutement d’un MCF et d’un enseignant contractuels, en lien pour la partie enseignement avec les Bachelors internationaux « Data Science and Big Data Technology » avec la Zhejiang University of Science and Technology (ZUST), à Hangzhou, en Chine, et « Data Science » avec l’Université de Maurice (UoM).
En recherche, le MCF sera intégré au laboratoire ETIS (UMR 8051), dans l’équipe MIDI, dont les travaux portent sur l’intégration, l’indexation, l’interrogation et l’analyse de grandes masses de données de divers types, allant des données structurées au texte et à l’image.
Pour chaque poste, le contrat initial est d’un an, avec la volonté de proposer par la suite une extension de contrat de 3 ans.

Sujet :
CY Cergy Paris Université (CYU) recrute un enseignant-chercheur (équivalent MCF) et un enseignant (service d’enseignement de 384 heures) contractuels, titulaires d’un doctorat en informatique et pouvant enseigner en français et en anglais.
Le service d’enseignement sera partagé entre les deux Bachelor et d’autres enseignements au sein du département de sciences informatiques de CYU. Dans le cadre des deux Bachelors, les candidats recrutés participeront activement au montage, à l’enseignement et au pilotage pédagogique des modules de Bachelor. L’enseignement dans les deux Bachelors se fait sur place, en Chine et à Maurice, lors de séjours de quelques semaines. Pour le Bachelor avec ZUST l’enseignement se fait en français, pour celui avec l’UoM l’enseignement se fait en anglais.
En recherche, l’intégration à l’équipe MIDI du laboratoire ETIS se fera sur des thématiques autour de l’intégration et l’analyse de grandes masses de données de natures diverses (web de données, contenu et graphe des réseaux sociaux, données de mobilité, etc.), ainsi que l’élaboration et l’étude de méthodes d’apprentissage automatique pour l’analyse et la gestion de ces données.
Pour candidater, envoyer un CV et une lettre de motivation à Dimitris Kotzinos (dimitrios.kotzinos@cyu.fr) et Dan Vodislav (dan.vodislav@cyu.fr), en précisant le poste visé (MCF ou enseignant).
Date limite de candidature: le 15 septembre 2021

Profil du candidat :
Doctorat en informatique. Pour les candidats au poste MCF, de préférence une qualification MCF section 27.
Expérience d’enseignement en informatique à l’université.
Pour le poste MCF, profil recherche compatible avec une intégration dans l’équipe MIDI, tel que décrit dans le sujet.

Formation et compétences requises :
Voir Profil du candidat

Adresse d’emploi :
CY Cergy Paris Université
Site Saint Martin
2 avenue Adolphe Chauvin
95300 Pontoise

Thèse CIFRE : Interprétation automatique de données géophysiques par techniques d’apprentissage

Offre en lien avec l’Action/le Réseau : MACLEAN/– — –

Laboratoire/Entreprise : LISTIC (USMB) et Géolithe
Durée : 3 ans
Contact : guillaume.ginolhac@univ-smb.fr
Date limite de publication : 2021-12-01

Contexte :
Le géoradar ou Ground Penetrating Radar (GPR) est une technologie permettant de sonder les sols à la recherche d’objets enfouis ou étudier la composition du sol (différentes couches constituantes et leurs proportions par exemple). Il s’agit d’un système radar émettant une onde électromagnétique pénétrant le sol et se réfléchissant sur les différents éléments le constituant. En captant les signaux réfléchis, on peut obtenir un signal appelé radargramme et qui est analysé pour étudier le sol en question. L’amélioration récente des technologies en termes d’antennes ont permis une réduction significative de la taille des géoradars. Ainsi il est envisageable de considérer un scénario de géoradar aéroporté (monté sur un drone) afin d’analyser les sols ainsi que les pans de montagnes de manière plus extensive.

Dans ce cadre, le projet s’intéresse à l’étude radargrammes obtenus en milieu montagneux dans le cadre de mission de protection contre les risques naturels gravitaires. Cette information est capitale pour prévoir la chute de rochers ainsi que des glissements de terrain dont la fréquence augmente avec le réchauffement climatique et éviter des dégâts potentiels aux infrastructures de montagne telles que les routes, ponts, bâtiments et autres infrastructures liés aux activités économiques telles que le tourisme. Le scénario du géoradar aéroporté étant éloigné du scénario classique du géoradar plaqué au sol, il est ainsi nécessaire de prendre en compte les spécificités de ce nouveau mode d’acquisition. Une transposition directe des outils de traitements développés pour le géoradar plaqué au sol n’est donc pas possible.

Le but général dans ce contexte est de détecter / classifier les différentes structures géologiques ou objets présents dans le sous-sol. Pour réaliser cette opération, Géolithe a l’intention d’utiliser des techniques d’intelligence artificielle (IA) nécessitant des données préalablement labélisées. Ce travail de labellisation a été initié au sein de l’entreprise et la base de données est mise à jour continuellement.

Sujet :
Malheureusement, il est très difficile d’appliquer directement les techniques d’IA à cause de plusieurs paramètres :
• Les images provenant des données GPR sont déjà dans le cas classique assez bruitées entrainant un rapport signal à bruit peu important. Ce problème est encore plus prononcé pour les géoradar aéroporté car ils sont situés plus loin de la surface. De plus, ces images GPR aéroportés comportent un certain nombre de données aberrantes qui peuvent réduire fortement la performance des algorithmes d’IA.
• La diversité des données est assez pauvre. En effet, une seule gamme de fréquence est utilisée et il n’y a pas d’information polarimétrique ce qui rend la distinction entre les objets délicate.
• Les données sont labélisées par des experts mais pour un non spécialiste, il n’est pas toujours évident de distinguer les différences et il est donc probable que la phase d’apprentissage soit cruciale pour bien distinguer les différentes réponses du sous-sol.
• Même si les données labélisées par géolithe sont importantes, elles seront sûrement insuffisantes pour entrainer un algorithme d’IA n’ayant pas été pré-entrainé.

Pour utiliser efficacement les techniques d’IA, il va falloir bien prendre en compte ces différentes problématiques et faire évoluer les algorithmes existants pour qu’ils s’adaptent à la caractéristique des données GPR. Plus particulièrement, il sera difficile d’utiliser les données brutes directement.

Les objectifs de la thèse sont doubles :
• Dans un premier temps il s’agit de trouver un espace de représentation des données (features) permettant de mieux faire ressortir les différences entre les différentes classes des données labélisées. On s’intéressera notamment à des représentations par matrices de covariances qui sont une solution apportant des bonnes performances dans des applications liées au radar
• Dans un second temps, l’objectif est de développer des algorithmes efficaces et adaptés à cet espace de représentation. Notamment, les features obtenues peuvent vivre un espace de représentation non-euclidien et il sera nécessaire de prendre en compte cet aspect à l’aide d’outils tels que la géométrie riemannienne.
• Considérer d’un point de vue théorique les réseaux ainsi obtenus et apporter de la robustesse dans les architectures utilisées face aux contraintes évoquées en imagerie GPR.

Profil du candidat :
Master recherche ou ingénieur avec une expérience en apprentissage statistique

Formation et compétences requises :
Intérêt pour les mathématiques appliquées (statistiques, algèbre linéaire)
Compétences : vision par ordinateur, statistiques, apprentissage automatique, notamment deep learning
Programmation : Python, frameworks de Deep Learning (Tensorflow, PyTorch)

Adresse d’emploi :
LISTIC, Annecy
Géolithe, Grenoble

Document attaché : 202109011525_Sujet these Geolithe.pdf

Thèse CIFRE en Statistiques/ apprentissage.

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Institut de Mathématiques de Marseille
Durée : 36 mois
Contact : badihghattas@gmail.com
Date limite de publication : 2021-09-30

Contexte :
The Aircraft Troubleshooting Function is integrated transversally in each interconnected on board avionic unit as well as on ground stations of Airbus helicopters. Its main objective is to provide to the maintenance operators all information required to remove any detected failure with the best effectiveness. The function is made of successive algorithms computing the raw data recorded on board to provide to the maintenance operators for each detected failure, whether it requests a maintenance task, the corresponding diagnosis and the best troubleshooting procedure to be followed in order to remove the failure.

Sujet :
See attached document

Profil du candidat :
Master 2 de mathématiques (statistiques) ou apprentissage, ou école d’ingénieur avec spécialité statistique/ apprentissage.
De bonnes compétences en apprentissage statistique et programmation python (et accessoirement R) sont exigées.
Bons résultats scolaires exigés pour cette thèse CIFRE.

Formation et compétences requises :
Master mathématiques statistiques ou école d’ingénieur avec spécialité en statistiques.

Adresse d’emploi :
Marseille Luminy (Institut de Mathématiques de Marseille) et AIrbus (Marignane).

Document attaché : 202108281813_Thesis Project-reduced.pdf

Enseignant chercheur Informatique F/H – Apprentissage et système complexe

Offre en lien avec l’Action/le Réseau : DOING/– — –

Laboratoire/Entreprise : DVRC/ESILV
Durée : CDI
Contact : nicolas.travers@devinci.fr
Date limite de publication : 2021-09-30

Contexte :
L’ESILV, Ecole Supérieure d’Ingénieurs Léonard de Vinci est une école d’ingénieurs généraliste au cœur des technologies du numérique. Elle recrute principalement au niveau Baccalauréat ainsi qu’au niveau des CPGE et forme des ingénieurs opérationnels s’insérant parfaitement dans le monde professionnel. Le projet pédagogique de l’ESILV s’articule autour des sciences et des technologies numériques ainsi qu’une forte transversalité avec 20% de son cursus en commun avec une école de management (EMLV) et une école du digital (IIM) dont un parcours Ingénieur Manager en 5 ans, double diplômant. Les spécialisations proposées portent sur la finance (ingénierie financière, actuariat et fintech), l’informatique (Data & IA, Objets connectés & sécurité), la mécanique (Modélisation & mécanique numérique, Industrie 4.0), l’énergie (Energie & villes durables) et la santé (Santé Biotech). Elle propose également deux Bachelors en Ingénierie Numérique et en Technologie & Management. 3100 élèves. Labellisée EESPIG, l’ESILV est membre de la CGE, de l’UGEI, de la CDEFI, de Campus France et de Talents du Numérique. Site web : www.esilv.fr

Rattaché directement au Responsable du Département Informatique, l’enseignant-chercheur sera membre du De Vinci Research Center (DVRC) au sein du Pôle Léonard de Vinci.

Sujet :
MISSIONS GENERALES DU POSTE ET RESPONSABILITES

Enseignement
Assurer des enseignements et suivre des projets d’élèves
Prendre la responsabilité de cours et coordonner une équipe de chargés d’enseignement
Effectuer le suivi académique des étudiants
Conseiller les étudiants
S’impliquer dans les réflexions collectives sur les évolutions de programmes et l’amélioration de la qualité des enseignements
Recherche
Développer ses recherches au sein du DVRC et publier des articles dans des revues scientifiques à comité de lecture
Initier des collaborations de recherche avec des membres du DVRC et/ou vers l’extérieur
Participer aux activités du laboratoire de recherche (séminaire, réunions)
Présenter ses résultats de recherche au sein du laboratoire, dans des colloques et congrès
Participer à la recherche de projets de recherche financés
Relations extérieures et coopération avec les services supports
S’impliquer dans les campagnes de promotion de l’ESILV auprès des jeunes et des familles (JPO, salons, forums, conférences, presse, …)
Participer au développement de collaborations (enseignement et/ou recherche)
Activités transversales
Participer en termes de réflexions et de propositions au développement d’activités transversales entre les différentes écoles du Pôle Léonard de
S’impliquer activement dans la mise en œuvre effective des projets transversaux retenus

Profil du candidat :
THEMATIQUES DE RECHERCHE

Afin de répondre aux nombreux défis et enjeux actuels de notre société, le DVRC souhaite recruter une chercheuse ou un chercheur en apprentissage automatique et en système complexe dont les travaux sont motivés par des applications réelles. Au-delà̀ d’une base théorique solide, un goût avéré pour la modélisation et une réelle expérience dans les applications seront essentiels.

Le DVRC privilégiera deux types de profil :

Apprentissage
Apprentissage machine, profond ou statistique, classification supervisée ou non supervisée,
Apprentissage par renforcement et incertitude,
Un accent particulier sur la thématique de l’apprentissage à partir de données hétérogènes, multimodales ou de données sous forme de graphe sera apprécié
Système complexe, multi-agent, optimisation en grande dimension

Dans le cas du premier profil, bien que centré sur l’apprentissage machine et ses applications, la candidate ou le candidat devra mener une analyse basée sur des outils complémentaires pour mieux comprendre les mécanismes d’apprentissages et surmonter leurs défauts, en particulier l’explicabilité des résultats.

Les thèmes d’application sont ceux du laboratoire et de l’école : smart city, transition énergétique et environnementale, matériaux, finance/actuariat, santé, tourisme.

Dans le cas d’un recrutement plus sénior, la ou le candidat.e devra avoir une expérience avérée dans l’animation et la valorisation de la recherche. Pour tous les profils, une expérience industrielle sera appréciée.

DISCIPLINES D’ENSEIGNEMENT

Les enseignements confiés se répartiront sur le cycle Licence, Master (les enseignements dispensés dans le cycle Master se font en anglais) et/ou de Bachelors dans les domaines suivants :

Machine Learning,
Traitement et visualisation des données,
Programmation et Algorithmique,
Devops et Design Pattern,…

Formation et compétences requises :
Le ou la candidat.e devra être titulaire d’un doctorat, une habilitation à diriger des recherches sera appréciée dans les sections CNU 27 et/ou 61. Il/elle devra s’inscrire dans les connaissances suivantes :

Connaissances

Machine Learning,
Optimisation,
Apprentissage machine dans le contexte de projets académiques et industriels,
Algorithmes d’intelligence artificielle,
Science des données et visualisation,
Enseignement supérieur,
Tissu économique et métiers.

Connaissances opérationnelles

Méthodes pédagogiques (présentiel, classe inversée, distanciel avec outils digitaux, MOOC, SPOC, COOC …)
Outils bureautiques
Conduite de projet
Communication

Connaissances comportementales

Réactivité et disponibilité
Excellent relationnel
Aisance orale
Autonomie

Adresse d’emploi :
ESILV, Paris la Défense
https://www.devinci.fr/carrieres/enseignant-chercheur-informatique-f-h-algorithmique-et-data/