Stage M2 : Amélioration des images sous-marines

When:
31/03/2023 – 01/04/2023 all-day
2023-03-31T02:00:00+02:00
2023-04-01T02:00:00+02:00

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIS, UMR 7020
Durée : 6 mois
Contact : tpnguyen@univ-tln.fr
Date limite de publication : 2023-03-31

Contexte :
Stage de fin d’études de M2

Sujet :
Sujet de stage : Amélioration des images sous-marines

La perception dans un milieu sous-marin est un double enjeu à la fois civil et militaire. L’exploration du milieu sous-marin est une tâche cruciale pour différents acteurs tels que la Marine Nationale, l’océanographie, les groupes pétroliers, etc. Par exemple, la connaissance des fonds marins joue un rôle important pour déployer des sous-marins et des navires. Étudier des données visuelles prises par des caméras sous-marines est une tâche difficile. Ce défi vient des problématiques suivantes. Tout d’abord, les images sous- marines sont bruitées à cause du manque de la lumière dans la phase d’acquisition. De plus, cette condition amène également au contraste faible, ainsi que des effets de diffusion de la lumière dans ces images. De l’autre côté, l’absorption de la lumière dans l’eau est différente en fonction de la longueur d’onde, par conséquent la variation d’illumination et de couleur est forte dans ce type d’images. En effet, la lumière visible dont les longueurs d’onde sont plus longues est fortement absorbée par l’eau. Cela fait varier les couleurs des poissons en fonction de la distance et de la profondeur par rapport à la caméra. En outre, due à l’interface lentille/air/eau, la distorsion d’images est aussi une problématique des images sous-marines par rapport aux images classiques. C’est pour cela que la détection et la reconnaissance des objets dans des images sous-marines sont plus difficiles que celles des images populaires, car ces facteurs rendent les algorithmes classiques de détection et de classification inefficaces parce qu’ils ne sont pas conçus pour gérer de telles difficultés. L’objectif de ce stage est d’étudier des méthodes d’apprentissage profond [1, 2, 3, 4,
5, 6] pour proposer une méthode d’amélioration des images sous-marines avant d’utiliser des méthodes classiques de la vision par ordinateur pour les autres tâches.
Références
[1] Sharma, P.K., Bisht, I., Sur, A. : Wavelength-based attributed deep neural network for underwater image restoration (2021)
[2] Islam, M.J., Xia, Y., Sattar, J. : Fast underwater image enhancement for improved visual perception. IEEE Robotics and Automation Letters (RA-L) 5(2) (2020) 3227– 3234
[3] Li, C., Guo, C., Ren, W., Cong, R., Hou, J., Kwong, S., Tao, D. : An underwater image enhancement benchmark dataset and beyond. IEEE Transactions on Image Processing 29 (2020) 4376–4389
[4] Riba, E., Mishkin, D., andE. Rublee, D.P., Bradski, G. : Kornia : an open source diffe- rentiable computer vision library for pytorch. In : Winter Conference on Applications of Computer Vision. (2020)
[5] Islam, M.J., Edge, C., Xiao, Y., Luo, P., Mehtaz, M., Morse, C., Enan, S.S., Sat- tar, J. : Semantic Segmentation of Underwater Imagery : Dataset and Benchmark. In : IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), IEEE/RSJ (2020)
[6] Cao, Z., Hidalgo Martinez, G., Simon, T., Wei, S., Sheikh, Y.A. : Openpose : Realtime multi-person 2d pose estimation using part affinity fields. IEEE Transactions on Pattern Analysis and Machine Intelligence (2019)

Profil du candidat :
Étudiants en M2R ou en école d’ingénieur avec une majeure en traitement d’image, en apprentissage automatique ou en intelligence artificielle.

Formation et compétences requises :
De bonnes compétences en programmation python sont requises. La connaissance des frameworks de deep learning est un plus souhaitable. Le candidat doit avoir de bonnes capacités rédactionnelles et de communication orale.

Adresse d’emploi :
Laboratoire LIS, Bâtiment X, l’avenue de l’université, 83130, La Garde.
Pour postuler le stage, merci d’envoyer le CV et relevé de notes M2 à tpnguyen@univ-tln.fr

Document attaché : 202211221746_StageM2_2023.pdf