Apprentissage semi-supervisé et faiblement supervisé pour la segmentation sémantique

When:
01/02/2020 – 02/02/2020 all-day
2020-02-01T01:00:00+01:00
2020-02-02T01:00:00+01:00

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : CEDRIC – CNAM
Durée : 6 mois
Contact : nicolas.audebert@cnam.fr
Date limite de publication : 2020-02-01

Contexte :
La compréhension de scènes est un enjeu majeur de la recherche en perception artificielle.
Il s’agit non seulement d’identifier les objets imagés mais aussi de comprendre les relations qui les lient: la fracture est-elle horizontale ou verticale, les livres sont-ils rangés, le piéton traverse-t-il?

Toutefois, le paradigme d’apprentissage supervisé demeure le plus populaire et les modèles profonds sont ainsi gourmands en annotations.
Or, l’étiquetage exhaustif des objets, voire des pixels, d’une image est un procédé d’annotation coûteux et qui nécessite souvent l’intervention d’experts (par exemple, des médecins) dont le temps est précieux.
Récemment de nouvelles approches d’apprentissage dites semi-supervisée ou faiblement supervisées~cite{wildcat} se sont intéressées à la réduction de la quantité et de la qualité des annotations nécessaires à l’obtension des performances à l’état de l’art en reconnaissance de formes, jusqu’à se passer entièrement d’annotations~cite{zeroshot}.
L’objet de ce stage est ainsi d’étudier les approches parcimonieuses en supervision pour la compréhension d’images.

Sujet :
Il existe dans la littérature scientifique plusieurs approches de classification d’images semi-supervisées, par préentraînement non-supervisé~cite{deepcluster,jigsaw}, propagation d’étiquettes~cite{distillation,simple} ou contraintes géométriques~cite{uda}.

Le premier objectif de ce stage consiste à adapter les techniques de classification semi-supervisées et non-supervisées au problème de la segmentation sémantique.
En effet, ces approches exploitent généralement des notions d’invariance ou d’équivariance à des objets à des transformations géométriques qu’il est possible de retrouver ou de modéliser dans le cadre de la compréhension de scènes.
Par exemple, faire tourner un objet de 90° doit produire une segmentation où le masque de l’objet correspond à une même rotation du masque initial.

Le second objectif du stage est de réduire le niveau de supervision des exemples d’entraînement, c’est-à-dire d’apprendre à partir d’annotations moins fines ou incomplètes.
En pratique, il est rare de pouvoir travailler sur des bases de données où les images ont été complètement annotées au niveau pixellique et il est bien souvent nécessaire de se contenter d’annotations partielles ou grossières, plus rapides à obtenir.

La mise en application des méthodes développées pourra se faire sur différentes applications déjà étudiées au sein du laboratoire: conduite de véhicules autonomes, cartographie d’images satellitaires, analyse d’images médicales ou segmentation d’images naturelles génériques.

Profil du candidat :
Le ou la candidate doit démontrer un certain goût pour la recherche et des bases théoriques adéquates en apprentissage automatique, apprentissage profond et traitement d’image.

Formation et compétences requises :
Nous recherchons un ou une candidate de niveau master 2 ou école d’ingénieur avec une spécialité en mathématiques, en informatique ou en traitement du signal.

Une aptitude à la programmation, de préférence avec Python, est indispensable.
Une première expérience avec une bibliothèque d’apprentissage profond telle que TensorFlow ou PyTorch est un plus.

Adresse d’emploi :
Laboratoire Cédric, Conservatoire National des Arts & Métiers (CNAM)
2, rue Conté
75003 Paris

Document attaché : sujet.pdf