Stage M1/M2

When:
26/02/2021 – 27/02/2021 all-day
2021-02-26T01:00:00+01:00
2021-02-27T01:00:00+01:00

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : UMR LETG Rennes (CNRS, Univ. Rennes 2), UMR ESE (I
Durée : 6 mois
Contact : guglielmo.fernandez-garcia@inra.fr
Date limite de publication : 2021-02-26

Contexte :
Dans le cadre du suivi des poissons en rivières, les caméras acoustiques sont des outils de plus en plus utilisées car elles permettent un enregistrement continu et non intrusif de toute l’activité de la faune aquatique dans son milieu naturel. Il en résulte des quantités énormes de vidéos dans lesquelles on cherche à sélectionner les passages des poissons, dénombrer les effectifs, et identifier leurs espèces. En vue de réduire les temps de visionnage manuel des vidéos par des opérateurs dédiés, nous avons développé une méthode automatique, basée sur des techniques de réseaux de neurones, qui permet de détecter les passages de poissons dans les vidéos acoustiques.

Cet outil, développée en python et C++, peut être améliorée. Actuellement, la méthode permet uniquement de reconnaître le passage d’un poisson sans en identifier l’espèce ni en extraire des descripteurs morphologiques ou comportementaux. Parmi les poissons détectés, il est nécessaire de pouvoir identifier automatiquement l’espèce observée et la taille des individus afin de décrire la composition des populations étudiées. De plus, la méthode a été développée à partir des données de deux caméras sonar (DIDSON et ARIS), déployées sur deux sites d’étude différents (Sélune et Touques en Normandie), l’efficacité de la méthode avec d’autres caméras (ex. Blueview) et sur d’autres sites de suivi est encore à tester.

Sujet :
Afin de rendre l’outil utilisable par les différents acteurs de recherche ou de gestion de la biodiversité des milieux aquatiques, nous avons besoin de développer un outil d’analyse capable d’extraire un maximum d’informations biologiques à partir des vidéos acoustiques. En particulier, nous souhaitons :

• Améliorer l’analyse multi-espèces (multi-classes) des flux vidéo des caméras sonar
• Permettre l’extraction automatique des caractéristiques morphologiques (e.g. taille) et comportementales (e.g. direction de la nage).
• Étudier l’extension de la méthode à d’autres types de caméras sonar et à différents sites d’étude.

Pour atteindre ces objectifs, nous allons suivre deux approches:

• Étendre la méthode actuelle: une première analyse multi-espèces peut être dérivée directement du modèle actuel, en augmentant le nombre de classes, chaque classe représentant une espèce d’intérêt. L’extraction des descripteurs de chaque passage de poisson sera réalisée en analysant les détections par le biais de cette méthode.
• Développer une approche temporelle de segmentation sémantique: dans ces méthodes chaque pixel de l’image est classé. Cela permet d’identifier avec précision la région qui représente l’objet d’intérêt sur l’image, conduisant ainsi à une meilleure définition des propriétés morphologiques du poisson et donc de l’identification de son espèce.

Profil du candidat :
Étudiant M1 ou M2 en informatique, science des données, écologie ou géographie ou des domaines connexes.

Formation et compétences requises :
La connaissance de Python est souhaitable. Une connaissance de base des méthodes d’apprentissage automatique est appréciée, mais pas obligatoire.

Adresse d’emploi :
UMR LETG Rennes (CNRS, Univ. Rennes 2)
’UMR ESE (INRAE, Institut Agro, Rennes)

Document attaché : 202102031459_fiche_stage_AcousticAI.pdf