Système de vision embarqué dans SoPC reconfigurable dynamiquement

When:
20/08/2020 – 21/08/2020 all-day
2020-08-20T02:00:00+02:00
2020-08-21T02:00:00+02:00

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : L@bISEN Yncréa Ouest, Equipe Vision-AD
Durée : 24 mois
Contact : maher.jridi@yncrea.fr
Date limite de publication : 2020-08-20

Contexte :
Les compagnes sous-marines pour des applications de défense et d’observation sont opérées par des drones équipés de caméras sous-marines en soutient aux dispositifs acoustiques. Avec l’augmentation des besoins de surveillance et de contrôle du milieu sousmarin, ces drones gagnent en autonomie pour pouvoir opérer avec un minimum d’intervention humaine. L’amélioration de l’autonomie reste un enjeu majeur en termes de réduction des couts et du renforcement de la sécurité des opérateurs. Dans ce contexte, l’utilisation des caméras sous-marines est une solution efficace qui présente plusieurs avantages. Toutefois, l’amélioration de l’intelligence à embarquer dans les drones pose un certain nombre de verrous technologiques. Le choix des algorithmes de vision à embarquer dans le drone doit prendre en compte l’environnement sous-marin comme la turbidité et la faible luminosité. Les techniques de conception d’algorithmes de vision sur des architectures hybrides et reconfigurables dynamiquement doivent permettre une répartition efficace des différents blocs à concevoir sur les différents éléments du système reconfigurable. Enfin, dans le cas de suivi de cible en mouvement, ou de l’impossibilité de poursuite de mission, le modèle d’apprentissage construit par un nœud (un drone) doit pouvoir être transmis à d’autres nœuds d’observation pour prendre le relais.

Sujet :
** Projet
En vision par ordinateur, le suivi de cibles (c.-à-d. le tracking) est une tâche complexe mais largement étudiée dans la littérature scientifique. En particulier, les approches mises au point cherchent à effectuer des suivis sur le long terme permettant de suivre un objet dans la durée, voir indéfiniement. Ces techniques se heurtent à de nombreux verrous techniques tels que la disparition temporaire de l’objet à suivre ainsi qu’à son changement d’apparence forme au cours du temps (objet déformable, changement de point de vue, changement de luminosité, dégradation…). Afin de dépasser ces contraintes, deux principales approches sont souvent utilisées : le suivi ou la détection.

Dans le premier cas, l’objet est suivi image par image après une phase d’initialisation. Cette approche permet un suivi continu et rapide mais avec une dérive importante au cours du temps à cause de l’accumulation des erreurs et des occultations de la cible. Dans le second cas, l’objet est détecté indépendamment sur chaque image en utilisant une référence connue surpassant ainsi les faiblesses de l’approche précédente. Cependant, ces approches nécessitent de connaître l’objet à suivre et s’appuient souvent sur des algorithmes lourds d’apprentissage automatique.

Afin de tirer parti de ces deux approches, l’algorithme Tracking-Learning-Detection (c.-à-d. TLD) propose de les combiner. La partie tracking cherche à suivre la cible image par image, la partie détection localise l’objet dans la scène et corrige le tracker si nécessaire et enfin, la partie learning estime les erreurs du détecteur et le corrige. L’un des points forts de cette approche, outre le fait qu’elle décorrèle les parties suivi et détection est son paradigme d’apprentissage. En effet, dans celui-ci, les erreurs sont estimées par deux « experts » qui permettent de repérer respectivement les détections manquées et les mauvaises détections. Ainsi, les erreurs commises par chaque expert sont compensées par leur indépendance. Il faut noter que l’algorithme TLD est mentionné comme exemple, l’étude pourra inclure d’autres algorithmes d’intelligence artificielle comme ceux en lien avec les réseaux de neurone pour la phase de reconnaissance.
** Problématique
L’utilisation de l’algorithme TLD pose des contraintes liées à son embarquabilité sur des cibles reconfigurables. En effet, cet algorithme est très coûteux en termes de ressources de calcul quand il est employé pour suivre des objets n temps-réel. Ainsi, il est peu envisageable de l’implémenter sur des CPU embarqués, qui offrent en général des performances de calcul limitées. Des travaux disponibles dans la littérature démontrent la possibilité d’implémenter le TLD sur des architectures de type FPGA. Cependant, cette approche présente deux inconvénients majeurs. D’une part, certaines parties de l’algorithme TLD sont nettement moins lourdes que d’autres en termes de calculs, et bénéficieraient donc d’être exécutées sur un CPU plutôt que sur un FPGA. D’autre part, une approche statique sur FPGA fait que les ressources sont réservées pour le TLD même lorsque celuici n’en aurait pas besoin. L’idée de ce projet est donc de développer une architecture hybride à la fois basée sur un CPU et un FPGA, et dynamique basée sur les principes des systèmes temps réels, adaptée à l’algorithme de TLD. La dynamicité au niveau du FPGA peut être obtenu via la technique de reconfiguration dynamique partielle, qui permettra alors l’abstraction d’unités de calculs matérielles en tâches pouvant être chargées/libérées du FPGA en cours d’exécution. Cette approche présente l’avantage de pouvoir utiliser le sytème pour d’autres applications moins critiques lorsque l’algorithme principal n’a pas de calculs à effectuer.

Un autre volet à traiter dans ce sujet est lié à l’utilisation du TLD dans une meute de drones. Nous nous n’occupons pas des techniques de communications ou de sécurisation du canal de transmission, mais plutôt de l’adaptation de l’algorithme TLD à fonctionner sur un drone qui n’a pas vu la scène, ni la cible à suivre. Il s’agit là d’un volet d’innovation important qui n’a pas encore été traité dans la littérature.
** Approches méthodologique et technique envisagées
L’algorithme TLD sera implanté sur une carte dédiée de type multi-CPU FPGA (ex. ZYnqUltrascale). L’architecture logicielle amène de la flexibilité notamment dans l’acquisition des données (caméra, capteur), alors que le FPGA est utilisé comme accélérateur matériel des fonctions de traitement d’images.

L’approche scientifique proposée dans ce travail consiste de partir d’un système d’acquisition d’images fonctionnel sur SoPC Ultrascale, dans un environnement indoor, de l’étendre pour inclure dans un premier temps l’algorithme TLD, puis pour l’utiliser dans le contexte de drones sous-marins.

L’utilisation de la reconfiguration dynamique partielle du FPGA dans le SoPC est primordiale afin de démontrer la faisabilité de cette technique et son apport dans des applications réelles sous contraintes.

Profil du candidat :
– La ou le candidat(e) doit avoir une expérience dans le cadre de sa thèse ou de projets réalisés dans le domaine de reconfiguration dynamique partielle des FPGA et/ou en vision par ordinateur. La maitrise des outils de conception et de synthèse de haut niveau sont nécessaires (Exemple : chaine Vivado ou équivalent, HLS, C/C++, VHDL, …).
– Les publications scientifiques dans les domaines de l’électronique numérique et la vision par ordinateurs seront appréciées lors de la sélection du candidat.

Formation et compétences requises :
– La ou le candidat(e) doit avoir un diplôme de doctorat (ou en cours d’obtention) en électronique numérique, informatique embarquée ou vision par ordinateur. La ou le candidat(e) peut avoir un diplôme d’ingénieur avec une expérience 3 ans dans les domaines susmentionnés.

Adresse d’emploi :
20 Rue Cuirassé Bretagne, 29200 Brest

Document attaché : 202006230657_Postdoc_LabISEN.pdf