Apprentissage profond basé sur la conception de modèles efficaces : applications à la surveillance maritime

When:
01/06/2022 – 02/06/2022 all-day
2022-06-01T02:00:00+02:00
2022-06-02T02:00:00+02:00

Offre en lien avec l’Action/le Réseau : DOING/Doctorants

Laboratoire/Entreprise : Laboratoire d’informatique et systèmes (LIS) UMR
Durée : 36 mois
Contact : tpnguyen@univ-tln.fr
Date limite de publication : 2022-06-01

Contexte :
Ces dernières années, les réseaux de neurones profonds (DNNs pour Deep Neural Networks) ont considérablement repoussé les limites de l’intelligence artificielle dans un large éventail de tâches, notamment la reconnaissance d’objets à partir d’images, la reconnaissance vocale, la traduction automatique, etc. Les réseaux de neurones profonds nécessitent beaucoup de calcul et de mémoire, ce qui les rend difficiles à déployer sur des équipements embarqués avec des ressources de calcul limitées. Ces réseaux profonds sont caractérisés par des millions voire des milliards de paramètres et sont presque exclusivement entraînés en utilisant une ou plusieurs cartes graphique (GPU) très rapides et gourmandes en énergie. Considérons un exemple avec le modèle de pointe VGG-16, il est constitué de 138,34 millions de paramètres, occupant plus de 500 Mo d’espace de stockage, 15,5 milliards d’opérations de cumul (MAC) et nécessite 30,94 milliards d’opérations en virgule flottante (FLOP) pour classer une seule image. Cela prend plusieurs minutes dans la phase d’inférence sur un appareil mobile ayant une capacité de calcul et des ressources de mémoire limitées.
Ces réseaux profonds nécessitent donc énormément de données, de calcul, de mémoire et d’énergie, ce qui les rend difficiles à utiliser et à déployer dans des applications réelles sur des équipements tels que smartphones, tablettes et systèmes embarqués. La compression des modèles de réseaux profonds et la réduction de la consommation d’énergie, tout en préservant les performances prédictives, revêt une importance cruciale pour le déploiement de réseaux profonds dans un tel contexte. C’est pour cela que les tendances récentes se concentrent sur le déploiement d’applications en temps réel telles que YOLO ou sur des ressources limitées (par exemple, MobileNet). Dans le cadre de cette thèse, nous nous concentrerons sur la compression des réseaux de neurones pour surmonter ce défi en réduisant les besoins en stockage, en consommation d’énergie, et la complexité de calcul dans la phase d’inférence des réseaux de neurones sans que cela n’affecte leur précision. Le but est de déployer les modèles compressés sur des équipements embarqués tels que les caméras intelligentes ou les drones (AUV, ROV, etc). Ces systèmes seront ensuite utilisés pour des tâches de vision par ordinateur telles que l’analyse de scènes dynamiques, ou la détection/reconnaissance d’objets dans des scènes maritimes ou sous-marines. Cela aura un lien avec d’autres projets portés par notre équipe, notamment le projet Rapid DGA UHV-MANTA et le projet ANR Astrid ROV-Chasseur.

Sujet :
Voir le sujet joint.

Profil du candidat :
Un candidat autonome et très motivé est sollicité avec un fort intérêt pour le domaine des méthodes mathématiques avancées appliquées au traitement du signal et l’apprentissage automatique.

Formation et compétences requises :
Une formation solide en traitement du signal, mathématiques appliqués, machine learning ou informatique.

Une bonne maîtrise des algorithmes d’apprentissage automatique, notamment les réseaux de neurones.

De bonnes compétences en programmation python sont requises. La connaissance des frameworks d’apprentissage (PyTorch, tensorflow, tensorly, etc.) est un plus souhaitable.

Le candidat doit avoir de bonnes capacités en communication orale et écrite.

Adresse d’emploi :
Laboratoire d’informatique et systèmes (LIS) UMR 7020
SeaTech – Bâtiment X – Avenue de l’Université 83130 LA GARDE

Document attaché : 202205021735_EDJ2022-2.pdf