Self Supervised Learning pour la détection d’objets de petite taille

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ONERA Palaiseau / SATIE
Durée : 36 mois
Contact : sidonie.lefebvre@onera.fr
Date limite de publication : 2024-06-20

Contexte :
Le développement de capteurs qui permettent d’acquérir de façon simultanée des images dans plusieurs bandes spectrales du visible à l’infrarouge lointain et leur exploitation automatique, rendue possible grâce à l’essor des méthodes de machine learning, ont permis de réaliser ces 20 dernières années de grands progrès en détection, reconnaissance et identification (DRI). Cependant, il demeure difficile de détecter des objets de petite taille (entre 1 et 50 pixels de surface), notamment quand ils présentent un faible contraste par rapport au fond ou quand on cherche à les détecter sur un fond texturé comme un ciel nuageux.
Malgré les progrès récents et impressionnants réalisés par les méthodes d’apprentissage profond dans les tâches de détection d’objets, les réseaux neuronaux (NN) traditionnels pour la détection d’objets ont du mal à trouver un équilibre entre un taux de détection élevé et un faible taux de fausses alarmes, ce qui se traduit par une dégradation de performances lorsqu’il s’agit de détecter des petites cibles. Cela s’explique par la complexité de l’apprentissage : les détecteurs doivent apprendre à extraire les caractéristiques de la cible à partir de peu de données, où le nombre de pixels de la classe objet est très faible par rapport à celui de la classe d’arrière-plan.

Sujet :
Pour résoudre ce problème, nous avons proposé, dans le cadre de la thèse d’A. Ciocarlan (2021-2024), un nouveau paradigme d’apprentissage basé sur un raisonnement a contrario, qui s’inspire de la théorie de la perception, en particulier de la théorie de la Gestalt. Les méthodes a contrario nous permettent de dériver automatiquement un critère de décision en modélisant le fond à l’aide d’un modèle naïf et en détectant les objets comme étant trop structurés pour apparaître “par hasard” selon le modèle naïf. Concrètement, notre méthode [Ciocarlan2023] consiste à guider l’apprentissage du NN en incluant un critère a contrario dans la boucle d’apprentissage. Le module NFA (pour Number of False Alarms) associé améliore considérablement les performances de ces algorithmes et a montré une robustesse impressionnante envers le contexte frugal dans le cas de données monospectrales infrarouge.

L’objectif de la thèse portera en premier lieu sur l’adaptation de cette méthodologie pour des données temporelles et multispectrales. Cette extension soulève à la fois la question de l’évolution de l’architecture des réseaux mais aussi, du fait de la difficulté à disposer de grandes bases de données annotées, de l’apport des méthodes de pré-entrainement d’une partie du réseau sur des données non labélisées via une tâche prétexte (SSL – self supervised learning). L’enjeu sera de définir une tâche prétexte pertinente pour la détection de petits objets sur fonds texturés, en s’appuyant notamment sur les travaux à base de masked autoencoder [He2021] ou d’apprentissage contrastif intra-image [Zhao2021]. Pour l’aspect temporel, on pourra par exemple s’inspirer des méthodes qui proposent de coupler le réseau de détection avec des méthodes de pistage rapides comme celles à base de noyaux (kernelized correlation filter – KCF) [Fan2023].

Enfin, il est important lorsqu’on utilise des NN de contrôler l’incertitude associée à leur usage et d’être en mesure d’interpréter leurs prédictions. Le deuxième enjeu de la thèse portera donc à la fois sur l’explicabilité des prédictions de détection et sur la quantification des incertitudes (UQ) associées. On envisagera notamment des approches ensemblistes et/ ou conformes pour l’aspect UQ [deGrancey2022][Andéol2023] et des approches à base d’indices de sensibilité pour l’explicabilité [Novello2022], qu’il faudra adapter à la problématique de la détection de cibles de petite taille en multispectral. Ces travaux se feront dans le cadre du Groupement d’Intérêt Scientifique LARTISSTE (https://uq-at-paris-saclay.github.io/).

Profil du candidat :
Master 2 ou école d’ingénieur spécialité IA ou statistiques, UQ

Formation et compétences requises :
Compétences en statistiques, deep learning, pytorch

Adresse d’emploi :
ONERA Palaiseau
6 chemin de la Vauve aux Granges
91120 Palaiseau

Document attaché : 202312201546_DOTA-2024_thèse_SSL.pdf

Postdoc position at Météo-France (CNRM) in Artificial Intelligence for Numerical Weather Prediction

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Centre National de Recherches Météorologiques
Durée : 15 months
Contact : laure.raynaud@meteo.fr
Date limite de publication : 2024-06-20

Contexte :
This position is part of the DestinE Tender ‘DE_371’. Destination Earth (DestinE) is an initiative of the European Commission under the EU Digital Europe programme, alongside with ESA and EUMETSAT as partners. DestinE aims to deploy several highly accurate thematic digital replicas of the Earth, called Digital Twins (DTs). The Digital Twins will help monitor and predict environmental change and human impact, in order to develop and test scenarios that would support sustainable development and corresponding European policies for the Green Deal. Artificial Intelligence (AI) and, more precisely, Machine and Deep Learning (ML and DL) are important for DestinE on many different levels, in particular for uncertainty quantification. The aim of DE_371 is to demonstrate that ML/DL based methodologies can augment DestinE datasets and products with the purpose of better capturing uncertainty.

Sujet :
Currently operational weather forecasts rely on physically-based modelling approaches, and Numerical Weather Prediction (NWP) models are operated to determine atmospheric conditions for the next hours and days. In particular, Ensemble Prediction Systems (EPSs) aim at sampling the probability distribution of future atmospheric states, by running several NWP forecasts in order to account for the different sources of uncertainty. However, the design of EPSs is strongly constrained by available computational resources, and is often limited to O(50) forecasts. The goal of the position is to use generative ML techniques to increase the ensemble size by creating additional physically-consistent ensemble members tethered to a small ensemble, or single member deterministic input. Building on the innovative works of Brochet et al. (2023) with a GAN framework, several avenues for improvement will be explored, including the generation of temporal sequences, the production of a wider set of variables, and the comparison to other generative approaches such as diffusion models. A specific attention will be paid to the evaluation of the physical consistency of generated forecasts and of their capacity to significantly improve the statistical properties of the existing ensemble, including for instance the spread-error relationship, probabilistic skill scores and representation of extreme events.

Profil du candidat :
The ideal candidate would have the following qualifications :
– A PhD degree in atmospheric sciences, statistics or artificial intelligence
– A strong background in deep learning algorithms, in particular convolutional neural networks and deep generative models
– Experience in geophysical problems would be appreciated, at least a strong interest for applied research in atmopsheric physics is highly recommended
– Proficiency with Python programming and AI librairies (tensorflow, PyTorch)
– Experience with processing large volumes of data
– Experience of working in a Linux-based environment
– Aptitude for scientific work, written and oral communication in English, meetings abroad possible
– A scientific curiosity, autonomy, rigor in the interpretation of the results

Formation et compétences requises :
PhD degree.

Adresse d’emploi :
This work will be carried on in the Assimilation and Forecasting group of the Météo-France research department (CNRM), in Toulouse, France.

Measuring event impact and propagation in the internet

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIP6
Durée : 4 to 6 months
Contact : lionel.tabourier@lip6.fr
Date limite de publication : 2024-03-31

Contexte :
Understanding the impact of internet anomalous events at internet scale, such as performance degradation, outages, or attacks, is a challenging problem. If techniques and systems have been designed to detect outages at some particular internet facilities, or detect congestion between interdomain links, there exists no internet scale system to monitor events across all autonomous systems (ASes), and thus, we have no clear understanding on the impact of an event on the internet.

The BGP protocol allows ASes to interconnect, so that each AS can reach the prefixes containing the IP addresses of another AS via the routes received with BGP. As most internet events rarely last more than tens of minutes, to capture them, we need to run traceroutes towards each BGP prefix announced by all the ASes very frequently. And in addition to these background measurements, we need to be able to run even more targeted measurements during an event, in order to have a precise understanding of the behavior of the internet paths before and after this event.

Unfortunately, public measurement systems, such as RIPE Atlas and CAIDA Ark do not offer such measurements or the possiblity to run them. They either perform meshed traceroutes between hundreds of sources and destinations at short intervals (15 minutes), or perform traceroutes to one destination per BGP prefix from a hundred of vantage points every day. This is neither sufficient to have an internet scale coverage nor to cover most internet events.

Sujet :
We propose to design this missing measurement system, that will run background traceroutes at high speed every 15 minutes from a few vantage points to one destination in each BGP prefix announced by any AS. When an event is detected, we will run targeted measurements using
propagation algorithms to understand how this event spreads on the internet.

Profil du candidat :
This internship is directed at Master students (preferably Master 2 students) with a background in computer science. Good coding skills are requested for the internship, knowledge of a widely-used language in learning, such as python, is preferable but not mandatory.

Formation et compétences requises :
Background in computer networking, system building, and graph theory are at the heart of the internship, so a background in those areas is an asset, but not mandatory.

Adresse d’emploi :
LIP6, Sorbonne University (4 place Jussieu, 75005, Paris)

Document attaché : 202312201034_Measuring_Event_Impact.pdf

Gaussian Process Prior Variational Autoencoders for Earth Data Time Series Anlaysis

Offre en lien avec l’Action/le Réseau : RoCED/– — –

Laboratoire/Entreprise : INRAE Toulouse
Durée : 6 mois
Contact : mathieu.fauvel@inrae.fr
Date limite de publication : 2024-02-28

Contexte :
Over the last ten years, Earth Observation (EO) has made enormous advances in terms of spatial and temporal resolutions, data
availability and open policies for end-users. The increasing availability of complementary imaging sensors allows land ecosystems
state variables and processes to be observed at different spatio-temporal scales. Big EO data can thus enable the design of new
land monitoring systems providing critical information in order to guide climate change monitoring, mitigation and adaptation.
Conventional machine learning methods are not well adapted to the complexity of multi-modal, multi-resolution satellite image
time series (SITS) with irregular sampling. Therefore they are not suitable for extracting and processing all the relevant infor-
mation. On the other hand, methods based on deep neural networks have shown to be very effective to learn low-dimensional
representations of complex data for several tasks and come with high potential for EO data. However, they often emerge from the
computer vision (CV) and natural language processing (NLP) communities and need to be extended and properly instantiated to
handle the very specificities of Earth Observation data.
Previous works at the CESBIO-lab have shown that generative encoder-decoder architectures such as the Variational Auto-
Encoder (VAE) or the U-NET models perform very well for a variety of EO tasks : estimation of biophysical parameters or
Sentinel-1 to Sentinel-2 translations, to cite a few.
However, such approaches appear to be inadequate to handle data coming from more than 2 sources and acquired at different
time and spatial resolutions, as prioritized in the RELEO chair within ANITI. In particular, the generative capability of these
models may generalize poorly to unseen regions or temporal periods. Processing such streams of data requires to jointly encode
all sources into a structured latent space where each complementary information carried by each source can be embedded while
ensuring long-term encoding of newly acquired data (from possibly new sensors).

Sujet :
The objective of this internship is to investigate Gaussian process (GP) prior for Variational Auto-Encoders (VAEs). Usually,
VAEs assume independence between samples. This assumption is generally made for sake of simplicity and computational ef-
ficiency of the training and inference steps. However, assuming independence of samples amount to ignoring the correlation
between adjacent pixels in the temporal domains. Furthermore, because of the very deterministic nature of such neural networks
architectures, they do not properly encode uncertainty related to missing/noisy data.
Adopting this GP prior is expected to model correlations between times. However, due to the irregular and unaligned nature of
SITS and their massive volume, approximation are required to maintain fast training and inference.
The work-plan of this Master internship is as follows :
1. Define GP prior VAEs for pixel satellite time series with different approximations,
2. Implement the models in PyTorch,
3. Perform experiments on massive SITS and compare with others VAEs on downstream tasks.

Profil du candidat :
Master or Engineering school students with major in applied mathematics, computer science or electrical engineering.

Formation et compétences requises :
The knowledge needed for this work includes a strong background in machine learning or data science, signal & image
processing or remote sensing data processing. Good scientific programming skills (e.g., Python) and good communication skills
in English, both written and oral are also expected. Interests in Earth observation will be appreciated.

Adresse d’emploi :
Centre d’Etudes Spatiales de la Biosph`ere (CESBIO) & INRAE

Document attaché : 202312190628_proposal_MSc_2024_ANITI.pdf

Explicabilité des décisions d’un GNN, application à la chémoinformatique

Offre en lien avec l’Action/le Réseau : DSChem/– — –

Laboratoire/Entreprise : Groupe de recherche en informatique, image, automa
Durée : 6 mois
Contact : jean-luc.lamotte@unicaen.fr
Date limite de publication : 2024-02-28

Contexte :
Ce stage prend place dans une collaboration de longue date entre trois laboratoires :
1. Le GREYC (UMR 6072, Caen), a développé au cours des années une expertise forte en fouille de données et apprentissage appliqué à la Chemoinformatique,
2. Le CERMN (UR 4258, Caen) est le centre d’études et de recherche sur le médicament de Normandie et entretient depuis de nombreuses années une collaboration avec le GREYC sur l’analyse informatique de molécules pour créer de nouveaux médicaments,
3. Le LITIS (UR 4108, Rouen), a acquis une solide expérience en apprentissage machine qu’il applique notamment sur des bases de graphes.
Le GREYC et le LITIS collaborent activement au sein de la fédération NormaSTIC.

Des membres des trois laboratoires participeront à l’encadrement du stage en y apportant leurs compétences respectives.

Ce stage peut être considéré comme une étape préparatoire à une thèse de doctorat sur le même sujet.

Sujet :
Le stage commencera par une étude des méthodes GNN permettant de prédire les propriétés de nos jeux de données. L’étude sera ciblée sur la prédiction des interactions protéines/ligands à partir des structures des molécules. A
cette occasion, des méthodes basées GCN, au sens large, et GCN+pooling seront étudiées.

Si cette étape est validée, nous aborderons une comparaison des méthodes de la littérature permettant d’expliquer les résultats de ces GNNs. Les résultats produits (en termes d’explication) seront évalués en utilisant plusieurs critères tels que l’accuracy, l’aire sous la courbe, la fidélité, la parcimonie,. . .. Nous espérons identifier à partir de cette étude des sous structures pharmacophoriques pertinentes pour les propriétés à prédire.

Nous essaierons, dans un troisième temps, d’appliquer ces méthodes sur les graphes moléculaires squelettiques. Il s’agira de comparer sous l’angle de l’explicabilité les descriptions moléculaires ”brutes” et celles produites en intégrant une expertise du domaine via le graphe pharmacophorique.

Profil du candidat :
Le candidat doit être inscrit en dernière année d’un Master ou d’un diplôme d’ingénieur dans un domaine lié à l’informatique ou aux mathématiques appliquées, et posséder de solides compétences en programmation. Une expérience en informatique pour la Science des Données, apprentissage profond, notamment sur graphes, sera un plus.

Formation et compétences requises :
Le candidat doit être inscrit en dernière année d’un Master ou d’un diplôme d’ingénieur dans un domaine lié à l’informatique ou aux mathématiques appliquées, et posséder de solides compétences en programmation.

Adresse d’emploi :
Le stage sera effectué au GREYC (Caen) ou au LITIS (Rouen) en fonction du lieu de recrutement de l’étudiant. Il débutera en février ou mars 2024 pour une durée de 6 mois et bénéficiera d’une gratification au tarif minimum réglementaire pour les stages.

Document attaché : 202312181731_stageMasterGNN-chemo.pdf

Job Recommendation From A Heterogeneous Graph

Offre en lien avec l’Action/le Réseau : DOING/– — –

Laboratoire/Entreprise : SAMOVAR/Télécom SudParis
Durée : 6 mois
Contact : romerojulien34@gmail.com
Date limite de publication : 2024-02-28

Contexte :
Job recommendation is the task of associating candidates with
jobs. This can be useful for candidates who would like to find to best possible
jobs, for companies that want to find the rarest talents in the vast pool of
candidates, but also for independent recruiters who need to be as precise as
possible when they send a resume to a company.
In this internship, you will work on a new dataset for job recommendations.
Its particularity is that it contains much additional information about candi-
dates and jobs we can represent as a graph. Besides, it is very sensitive to the
cold start problem: We have many new candidates and new jobs, and it restricts
a lot of the algorithms we can use.
If we consider video recommendations on Youtube, an average viewer watches
many videos, and each video is viewed many times. Therefore, when recom-
mending new videos to a specific user, we can look at what other similar view-
ers watched and recommend the most relevant video. This is the principle of
collaborative filtering. In our case, our users are likely to get a job and never
come back. Likewise, jobs are associated with one person, and then, we are
done with it. Therefore, we need to exploit extra information to make the
recommendation.
For our dataset, we can represent our pool of candidates and jobs with a
heterogeneous graph, connecting candidates and jobs, but also additional node
types like skills, cities, or employment types. Because we have this expressive
representation, we must adapt the existing algorithms. During the internship,
we will see how graph neural networks can be used to make recommendations,
and we will propose a new architecture to solve our specific problem.
The goal of this internship will be to publish a paper at an international
conference. The intern will work together with a Ph.D. student.

Sujet :
Job recommendation is the task of associating candidates with
jobs. This can be useful for candidates who would like to find to best possible
jobs, for companies that want to find the rarest talents in the vast pool of
candidates, but also for independent recruiters who need to be as precise as
possible when they send a resume to a company.
In this internship, you will work on a new dataset for job recommendations.
Its particularity is that it contains much additional information about candi-
dates and jobs we can represent as a graph. Besides, it is very sensitive to the
cold start problem: We have many new candidates and new jobs, and it restricts
a lot of the algorithms we can use.
If we consider video recommendations on Youtube, an average viewer watches
many videos, and each video is viewed many times. Therefore, when recom-
mending new videos to a specific user, we can look at what other similar view-
ers watched and recommend the most relevant video. This is the principle of
collaborative filtering. In our case, our users are likely to get a job and never
come back. Likewise, jobs are associated with one person, and then, we are
done with it. Therefore, we need to exploit extra information to make the
recommendation.
For our dataset, we can represent our pool of candidates and jobs with a
heterogeneous graph, connecting candidates and jobs, but also additional node
types like skills, cities, or employment types. Because we have this expressive
representation, we must adapt the existing algorithms. During the internship,
we will see how graph neural networks can be used to make recommendations,
and we will propose a new architecture to solve our specific problem.
The goal of this internship will be to publish a paper at an international
conference. The intern will work together with a Ph.D. student.

Profil du candidat :
The intern should be involved in a master’s program and have
a good knowledge of machine learning, deep learning, natural language processing, and graphs. A good understanding of Python and the standard libraries
used in data science (scikit-learn, PyTorch, pandas, transformers) is also expected. In addition, a previous experience with graph neural networks would be appreciated.

Formation et compétences requises :
The intern should be involved in a master’s program and have
a good knowledge of machine learning, deep learning, natural language processing, and graphs. A good understanding of Python and the standard libraries
used in data science (scikit-learn, PyTorch, pandas, transformers) is also expected. In addition, a previous experience with graph neural networks would be appreciated.

Adresse d’emploi :
Télécom Sudparis, Palaiseau

Document attaché : 202312181300_internship_job_recommandation-2.pdf

Financial Forecasting With Deep Learning

Offre en lien avec l’Action/le Réseau : DOING/– — –

Laboratoire/Entreprise : SAMOVAR/Télécom SudParis
Durée : 6 mois
Contact : romerojulien34@gmail.com
Date limite de publication : 2024-02-28

Contexte :
In this internship, we propose to study the problem of financial forecasting, i.e., predicting the future
variation of the price of a financial instrument, using deep learning. The student will work on a new
data source with a finer granularity than existing datasets. Because of the difficulty of obtaining
data, previous works focused on price prediction at the scale of a day, a week, or a month. Our
new dataset contains intraday information. Therefore, we can predict the price within a day and
use multi-scale analysis. Besides, our new dataset contains different kinds of financial instruments
(FOREX, crypto, options, futures) and additional information about the companies (description,
financial reports, dividends).

Sujet :
In this internship, we propose to study the problem of financial forecasting, i.e., predicting the future
variation of the price of a financial instrument, using deep learning. The student will work on a new
data source with a finer granularity than existing datasets. Because of the difficulty of obtaining
data, previous works focused on price prediction at the scale of a day, a week, or a month. Our
new dataset contains intraday information. Therefore, we can predict the price within a day and
use multi-scale analysis. Besides, our new dataset contains different kinds of financial instruments
(FOREX, crypto, options, futures) and additional information about the companies (description,
financial reports, dividends).

Profil du candidat :
The intern should be involved in a master’s program and have a good knowledge of machine learning,
deep learning, and data processing. A good understanding of Python and the standard libraries used
in data science (scikit-learn, PyTorch, pandas) is also expected. A previous experience with finance
is appreciated but not required for this internship.

Formation et compétences requises :
The intern should be involved in a master’s program and have a good knowledge of machine learning,
deep learning, and data processing. A good understanding of Python and the standard libraries used
in data science (scikit-learn, PyTorch, pandas) is also expected. A previous experience with finance
is appreciated but not required for this internship.

Adresse d’emploi :
Télécom SudParis, Palaiseau

Document attaché : 202312181259_stage_finance.pdf

Emploi de Chef-fe de projet ou expert-e en Ingéniérie logicielle oiur mobilité NOEMIE

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CALMIP Toulouse
Durée : CDI
Contact : jean-luc.estivalezes@imft.fr
Date limite de publication : 2023-12-15

Contexte :
Le mésocentre régional de calcul CALMIP – https://www.calmip.univ-toulouse.fr – situé à Toulouse, propose un poste CNRS de type Noémie ouvert à la mobilité pour un chef.fe de projet ou expert en ingénierie logicielle. Cette personne évoluera dans un contexte de valorisation de la donnée issue du HPC. Il/elle sera placé(e) sous la responsabilité hiérarchique du directeur.

Sujet :
Ses missions s’articuleront autour de la gestion et de la valorisation de la donnée scientifique : il/elle contribuera au support et à l’évolution de l’offre de service PADIRE développée à CALMIP, avec comme élément central le portail Callisto ( https://callisto.calmip.univ-toulouse.fr/ ) basé sur DataVerse et l’accompagnement des utilisateurs pour la FAIRisation de leurs données.

Le détail du poste et les modalités de candidature sont accessibles à l’adresse suivante :

https://mobiliteinterne.cnrs.fr/ords/afip/owa/consult.affiche_fonc?code_fonc=Y56026&type_fonction=&code_dr=14&code_corps=IR&code_bap=E&nbjours=&page=1&colonne_triee=1&type_tri=ASC

Profil du candidat :
Agent CNRS en mobilité interne
IIngénieur de recherche en informatique

Formation et compétences requises :
Thèse en informatique ou niveau équivalent

Adresse d’emploi :
Unité d’accueil
UAR3667 http://www.calmip.univ-toulouse.fr

TOULOUSE

Post-doctorant(e) pour travailler sur une approche innovante pour le partitionnement de réseaux complexes (réseaux télécom, d’énergie, réseaux sociaux, …) centré sur les besoins des utilisateurs.

Offre en lien avec l’Action/le Réseau : Musiscale/– — –

Laboratoire/Entreprise : IMT Atlantique
Durée : 12 mois
Contact : cecile.bothorel@imt-atlantique.fr
Date limite de publication : 2023-12-15

Contexte :
IMT Atlantique est une grande école d’ingénieurs française de renom, formant les futurs professionnels de l’innovation, des technologies et du management, dont les thématiques d’enseignement se situent à l’intersection de l’ingénierie, de l’informatique, des télécommunications et de l’énergie. Le laboratoire Lab-STICC est une unité de recherche interdisciplinaire reconnue, traitant de questions liées à l’informatique,
l’électronique et les sciences de l’information. Fortement axé sur l’innovation, ce laboratoire favorise la collaboration entre chercheurs pour résoudre des problématiques complexes.

L’équipe DECIDE du Lab-STICC et du département Data Science d’IMT Atlantique vise à exploiter des synergies entre l’aide à la décision et la science des données pour répondre aux enjeux scientifiques, industriels et sociétaux émergeant de problèmes de décision dans les systèmes complexes (environnement, transport, énergie, réseaux sociaux, santé, défense).

Dans ce cadre, l’équipe recherche un(e) post-doctorant(e) pour un projet de recherche innovant sur le partitionnement de réseaux complexes centré sur les besoins des utilisateurs.

Sujet :
Vous participerez au développement d’une nouvelle approche de partitionnement de réseaux complexes (social, transport, énergie, etc.) guidée par les préférences de l’utilisateur. Votre rôle sera de :
– Définir les propriétés caractérisant les partitions selon les besoins des utilisateurs
– Intégrer la dimension temporelle dans les partitions
– Explorer l’espace des solutions candidates via des algorithmes d’optimisation
– Prendre en compte les préférences non-monotones des utilisateurs
– Générer des explications sur les partitions obtenues Cette approche pluridisciplinaire fait appel à l’optimisation multi-objectif, l’aide à la décision et l’analyse de réseaux complexes.

Profil du candidat :
Doctorat en informatique, mathématiques appliquées ou aide à la décision.

Formation et compétences requises :
Compétences en optimisation, algorithmique et analyse de réseaux complexes. Bonnes compétences en Python et idéalement en utilisation de solveurs de programmation mathématique (Gurobi, Cplex, …).

Adresse d’emploi :
IMT atlantique
Technopôle Brest-Iroise CS 83818
29238 Brest Cedex 3

Document attaché : 202312151310_annonce-en.pdf

Generative Model for multivariate time series. Application on aircraft engine

Offre en lien avec l’Action/le Réseau : BigData4Astro/– — –

Laboratoire/Entreprise : DAVID Lab – UVSQ – Versailles
Durée : 6 mois
Contact : mustapha.lebbah@uvsq.fr
Date limite de publication : 2024-01-31

Contexte :
In this research internship, we aim to test the feasibility of a modern neural methodology based on the generative model, which has been successfully applied to text/image processing. The field of video generation technology has seen significant advancements, with modern models capable of producing highly realistic videos [1, 4, 5]. Drawing an analogy to this, studying the life cycle of an aircraft engine can be viewed similarly to creating a video. In this analogy, each frame represents a distinct flight undertaken by the aircraft, during which multiple continuous parameters forming multivariate time series data. Each multivariate time series can be compared to a frame in a video, reflecting the dynamic states of the aircraft engine during the respective flight.

Sujet :
The aim of this research internship is to strengthen collaboration with Safran.

-Study the current state of the art in deep generative model and multivariate time series,
-By sequentially analyzing this collection of parameters flight after flight, akin to stringing together video frames, we can create a detailed and comprehensive depiction of the aircraft engine’s life cycle, allowing for the identification of behavioral patterns, anomalies and providing predictive insights into the engine’s performance and longevity.
-Based on previous studies [2, 3], implement one or more algorithms/architectures. The results obtained during the internship may lead to contributions to open-source software, or even a scientific publication, depending on the intern’s skills and motivation.

Profil du candidat :
End of engineering degree, M1/M2 in data science, statistics, artificial intelligence, or computer science. Excellent understanding of machine learning basics, particularly deep learning models. Excellent programming skills, especially with tensorflow/keras.

Formation et compétences requises :
End of engineering degree, M1/M2 in data science, statistics, artificial intelligence, or computer science. Excellent understanding of machine learning basics, particularly deep learning models. Excellent programming skills, especially with tensorflow/keras.

Adresse d’emploi :
The internship will be in the DAVID Lab at the University of Versailles

Document attaché : 202312150838_DAVID-UVSQ-Research_Internship_GenerativeMTS.pdf