Détection par « deep learning » de l’orientation d’un copépode à partir d’une seule prise de vue et d’un modèle tridimensionnel

When:
01/05/2019 – 02/05/2019 all-day
2019-05-01T02:00:00+02:00
2019-05-02T02:00:00+02:00

Annonce en lien avec l’Action/le Réseau : aucun

Laboratoire/Entreprise : Equipe Morpheme, laboratoire I3S, Sophia Antipolis
Durée : 5 à 6 mois
Contact : eric.debreuve@i3s.unice.fr
Date limite de publication : 2019-05-01

Contexte :
Contexte environnemental et biologique (voir document attaché)

Dans le cadre du projet Sentinelle Nord de l’Université Laval, Québec (Canada), l’équipe Morpheme et l’équipe PEPS1 participent au développement de méthodes de classification automatique du zooplancton des mers polaires par traits fonctionnels (par opposition à la classification selon une taxonomie génétique par exemple). Ces méthodes sont destinées à servir d’outil aux chercheurs en biologie et écologie marines dans l’étude de l’impact des activités humaines sur les régions polaires. Le plancton, dans son ensemble, est à la base de la chaîne alimentaire de la faune marine, et le phytoplancton participe de manière déterminante à la régulation de la quantité de CO2 dans l’atmosphère. On comprend pourquoi l’étude de l’évolution des populations de ces organismes est fondamentale, notamment dans les régions polaires fragilisées par le changement climatique.

Sujet :
Description du projet (voir document attaché)

La reconnaissance automatique d’objets tridimensionnels à partir d’une image (bidimensionnelle donc) pose le problème de la variabilité de l’apparence selon le point de vue de la prise d’image. Autrement dit, dans le contexte de la classification automatique d’images, deux images d’un même objet prises sous des angles différents peuvent aisément être classées dans des classes différents, sauf évidemment si l’ensemble d’apprentissage contenait suffisamment de points de vue différents pour chaque objets. Cette contrainte sur l’ensemble d’apprentissage n’étant en principe pas satisfaite dans des applications réelles, on recourt à la « data augmentation ». Toutefois, les déformations introduites ne sont pas vraiment réalistes1 et leur ampleur est trop limitée pour couvrir l’ensemble des points de vue si l’échantillonnage des points de vue parmi les images dont on dispose est réduit. Une solution naturelle est de prendre en compte le point de vue pour la classification. En quelque sorte, si on connaît la direction de prise de vue, on peut déduire d’où sont issues sur l’objet les caractéristiques extraites de l’image (par le biais d’un modèle 3-D de l’objet) et comment elle ont été « déformées » par cette direction par rapport à une vue dans une direction choisie comme standard. La tâche de classification devient ainsi indépendante du point de vue. Or pour connaître le point de vue d’une image, il faut savoir ce qui y est représenté, autrement dit il faut connaître la classe. Les problèmes de classification et d’estimation de point de vue ne sont donc pas solubles indépendamment l’un de l’autre. Des recherches ont déjà été menées pour les résoudre conjointement grâce à des réseaux de neurones convolutionnels. Toutefois, à notre connaissance, pas dans le cas d’objets déformables et translucides comme c’est le cas du zooplancton. Pour aborder ce contexte plus délicat, nous souhaitons d’abord étudier la faisabilité de la détermination du point de vue sachant la classe. Pour cela, nous utiliserons une base de données de copépodes, une sous-classe des crustacés pour laquelle il existe des modèles 3-D (voir Figure 1).
Il s’agira donc de créer une base de données synthétique d’images de copépodes par projection réaliste1 d’un modèle 3-D et de proposer un réseau de neurones convolutionnel (en choisissant parmi les réseaux existants, voire en s’en inspirant pour proposer une variante) permettant d’estimer automatiquement le point de vue. Le réseau sera alors validé sur des images réelles sous le contrôle d’experts en biologie marine. L’extension à la classification et estimation du point de vue conjointes se fera dans un contexte « one-class classification », c’est-à-dire pour classer/estimer le point de vue en copépode+point de vue versus non-copépode+point de vue (pour cette seconde classe, le point de vue ne sera bien sûr pas fiable et n’aura en fait pas d’intérêt). Le passage à classes multiples+point de vue pourra être envisagé selon l’avancement du projet.

Profil du candidat :
Compétences souhaitées (voir document attaché)

• Des connaissances en classification/régression par réseaux de neurones convolutionnels sont souhaitables
• Des connaissances en manipulation de maillages surfaciques sont souhaitables
• Un minimum d’autonomie en Python et Numpy
• Un manque d’expérience dans les domaines ci-dessus pourra être compensé par une bonne motivation

Formation et compétences requises :
Master 2 (voir document attaché)

Adresse d’emploi :
Equipe Morpheme, laboratoire I3S, Sophia Antipolis (voir document attaché)

Document attaché : artifactz-m2.pdf