Représentation de mouvement humain en vidéo pour l’analyse de comportement

When:
22/02/2021 – 23/02/2021 all-day
2021-02-22T01:00:00+01:00
2021-02-23T01:00:00+01:00

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : XLIM, université de Poitiers
Durée : 5/6 mois
Contact : olfa.ben.ahmed@univ-poitiers.fr
Date limite de publication : 2021-02-22

Contexte :
De très nombreuses recherches ont permis d’objectiver l’existence d’une équivalence
fonctionnelle entre la production et la perception des mouvements biologiques [1]. En lien avec
ces données, des chercheurs se sont intéressés à l’observation d’action comme technique
d’apprentissage ou de rééducation de comportements moteurs. Afin d’analyser précisément les
mécanismes mis en jeu dans l’observation d’action, une des approches utilisées consiste à
présenter les actions sous la forme d’une séquence animée de points représentant les
articulations d’une personne en mouvement (Technique du point-light display) [2][3]. Cependant,
les techniques utilisées pour réaliser ces séquences (utilisation d’une vingtaine de caméras infrarouge et de marqueurs placés sur le corps des participants, Vicon, Qualisis) sont parfois difficiles
à mettre en œuvre dans le cadre de la rééducation ou de l’entraînement sportif. Il serait donc
important de développer des techniques alternatives plus intelligentes.

Sujet :

Le sujet de stage consiste à développer un module capable de présenter une action humaine
sous forme de séquences animées de points en utilisant des techniques de vision par ordinateur
et d’apprentissage automatique [4]. L’objectif de ce stage sera de proposer un algorithme basé
sur les réseaux de neurones convolutifs (CNN) pour la détection de la posture humaine, la
détection des points d’intérêt qui présentent les articulateurs du corps humain. En outre, il sera
indispensable de disposer des coordonnées en 3D (X, Y, Z) de chaque articulation d’intérêt (tête,
épaules, coudes, poignets, hanches, genoux, chevilles par exemple) au cours du temps. Les
questions de lissage du signal devront également être prise en compte pour la création des
séquences animés des points. Finalement, les points détectés présenteront le mouvement de ces
articulations sous forme d’une séquence des marqueurs blancs sur un arrière plan noir, c’est le
principe des PLD. Le module développé serait intégré dans le logiciel PLAVIMOP [2] afin d’être
utilisé dans des protocoles d’apprentissage, de rééducation ou d’optimisation du comportement.
Les séquences de PLD ainsi créées seront comparées d’un point de vue biomécanique avec des
séquences réalisées par motion capture (vérité terrain) grâce aux techniques classiques de
capture du mouvement.

Profil du candidat :
Formation Master 2 ou Ecole d’Ingénieur. Traitement d’image, Machine Learning (Deep Learning), Vision par ordinateur
Programmation Python (Tensorflow et/ou Pytorch)

Formation et compétences requises :
.

Adresse d’emploi :
Laboratoire XLIM, site de Futuroscope, université de Poitiers