Vision par ordinateur embarquée pour le suivi d’une colonie de phoques

Offre en lien avec l’Action/le Réseau : – — –/Innovation

Laboratoire/Entreprise : L@bISEN Yncréa Ouest, Equipe Vision-AD, Nantes
Durée : 4 à 6 mois
Contact : ayoub.karine@yncrea.fr
Date limite de publication : 2024-02-11

Contexte :
Situé dans la réserve naturelle nationale d’Iroise, l’îlot de Morgol est le principal îlot accueillant des phoques gris dans l’archipel de Molène. Un observatoire permettait ces dernières années d’effectuer le comptage des individus ainsi que le suivi des naissances à distance, jusqu’à sa destruction à la suite d’intempéries. L’Office Français de la Biodiversité (et le Parc naturel marin d’Iroise) souhaite qu’un nouveau dispositif de suivi de la faune sauvage de l’îlot de Morgol soit mis au point, avec comme objectif de minimiser les perturbations humaines et non
humaines. Outre les équipements placés physiquement sur l’îlot, l’observatoire sera doté d’une plateforme logicielle qui implémente des algorithmes intelligents de détection de débarquement afin de continuer la surveillance de cet îlot aujourd’hui interdit au public.

Sujet :
Ce stage a pour but de mettre en oeuvre la partie intelligence artificielle du projet. En particulier, il est souhaité que les données vidéos issues de la caméra et sauvegardées sur l’unité
de stockage déportée à terre seront analysées en continu pour fournir : (1) une alerte en cas de débarquement sur l’îlot de Morgol et (2) une information approximative du nombre de phoques gris sur l’îlot. Ces deux types d’informations pourront être disponibles à travers un fichier Excel par exemple. Il est important de noter qu’une première version de ces analyses a été réalisée pour la précédente version du système[1] (avant sa destruction par les intempéries).
La première tâche sera réalisée en utilisant un système d’intelligence artificielle basé sur un réseau de neurones profond de type CNN spécialisé dans la détection[2]. Ce dernier sera optimisé pour détecter les classes « bateau » et « humain » et entraîné avec une base de données adaptée comme COCO par exemple. Cette intelligence artificielle sera associée à un outil de
régularisation permettant de traiter temporellement les données pour éviter : (i) les détections multiples d’un même évènement ainsi que (ii) les éventuelles fausses alarmes. Ainsi, la détection
d’évènements de type « débarquement » sera possible. Il est important de noter que l’évaluation de la performance de ce système en situation réelle ne sera pas possible si aucune base de données d’évènements annotés n’est disponible.
La seconde tâche, plus expérimentale, sera aussi réalisée avec un réseau de neurones profond de type CNN possiblement orienté vers l’estimation d’individus dans les foules[3]. Le but de ce système d’intelligence artificielle sera de fournir une estimation du nombre de phoques gris sur l’îlot de Morgol à intervalle régulier (à définir). Afin d’entraîner cet algorithme, des vidéos contenant une variété de densité de phoques gris devront être rendues disponibles afin de compléter la base de données annotée déjà disponible, si cela est nécessaire.
Pour les deux tâches détaillées ci-dessus, les traitements réalisés ne seront exploitables que pour des images fixes et lorsque la visibilité sur l’îlot le permet. Afin de réaliser ces tâches d’intelligence artificielle sur les données en temps réel, une unité de calcul de type Jetson Nano Orin sera utilisée et connectée en réseau avec l’unité de stockage. Celle-ci devra embarquer les deux algorithmes d’intelligence artificielle mis au point (détection des débarquemens et comptage des phoques) en s’appuyant par exemple sur des stratégie d’embarquement comme PyTorch
Mobile[4], ONNX[5] ou TensorRT[6].
** Références :
[1] Ayoub Karine, Jean-Yves Mulot, Yves Auffret, Thibault Napoléon, “Video Seals Recognition using Transfer Learning of Convolutional Neural Network” in International Conference on
Image Processing Theory, Tools and Applications IPTA 2020, Nov 2020, Paris, France.
[2] G. Cheng et al., “Towards Large-Scale Small Object Detection : Survey and Benchmarks” in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 45, no. 11, pp.
13467-13488, 1 Nov. 2023.
[3] Vishwanath A. Sindagi abd Vishal M. Patel, “A survey of recent advances in CNN-based single image crowd counting and density estimation” in Pattern Recognition Letters, vol. 107, pp. 3-16, 2018.
[4] https ://pytorch.org/mobile/home/
[5] https ://onnx.ai/
[6] https ://developer.nvidia.com/tensorrt

Profil du candidat :
Master 2

Formation et compétences requises :
Le candidat doit avoir :
• suivi un cursus de Master ou d’Ingénieur dans un des domaines suivants : intelligence artificielle, vision par ordinateur, science des données, mathématiques appliquées ;
• de solides compétences en algorithmique et en programmation ;
• des connaissances en vision par ordinateur appliquée ;
• une connaissance de la bibliothèque PyTorch serait un plus.

Adresse d’emploi :
33 QUATER Av. du Champ de Manœuvre, 44470 Carquefou

Document attaché : 202401151028_SujetM2_visionEmbarquée.pdf

Continuous queries over trajectory robots data

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : INRAE
Durée : 5-6 mois
Contact : sandro.bimonte@inrae.fr
Date limite de publication : 2024-01-31

Contexte :
Autonomous robots move on plots to perform technical tasks such as mechanical weeding. They are programmed to perform these tasks by minimizing movement on plots, via trajectories planned, while avoiding potential fixed obstacles (such as a root or a pole) or mobile (human, animals, or vehicle) requiring a deviation to the trajectory predefined. Therefore, robots are the main sources of a trajectory data stream. This stream needs to be continuously queried in order to identify patterns and outliers. For example, every second the farmer could be interested to know if a possible collision among robots will happen. This kind of queries are implemented by Data Stream Management Systems (DSMSs). To the best of our knowledge, DSMSs have not been benchmarked for querying robot data, yet.

Sujet :
In this project we will study the existing open source DSMSs that can be integrated with our supervision system LambdAgrIoT [1].

The study is conducted over two features, namely: querying capabilities and performance. Then, the best solution will be integrated into LambdAgrIoT.

Work plan
Analysis of existing work on trajectory stream querying (Spark Streaming, Flink, etc.)
Benchmark existing DSMSs
Integration in the LambdAgrIoT system of the chosen solution
Implement the web interface to visualize the results

Profil du candidat :
Master 2

Formation et compétences requises :
Skills: SQL, Java, Web programming, DSMSs (Spark Streaming, Flink, etc.) (optional), Kafka (optional), Grafana (optional)

Adresse d’emploi :
Aubiere, Campus Cezaux

Document attaché : 202401141146_Stage M2_ Continuous queries over trajectory robots data (1).pdf

Stage M2/Ingénieur : Multi-view clustering

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire I3S – Sophia Antipolis
Durée : 6 mois
Contact : lionel.fillatre@i3s.unice.fr
Date limite de publication : 2024-01-31

Contexte :
Il s’agit de développer un réseau de neurones profond pour partitionner, de façon non-supervisée, un ensemble de données selon plusieurs points de vue.

Ce sujet de stage est réalisé dans le cadre d’un projet ANR. En fonction des résultats obtenus, le stagiaire pourra poursuivre en thèse (financement déjà obtenu).

Sujet :
Objectif :

Nous disposons de données biomédicales qui concernent des patients atteints de troubles mentaux. Nous souhaitons développer un algorithme de partitionnement (« clustering ») qui nous permet de regrouper ces patients en différents groupes. Ce partitionnement devrait nous permettre d’identifier les caractéristiques communes qui sont partagés par les patients qui souffrent d’un même trouble mental. Un seul partitionnement est souvent peu informatif car il est difficile de forcer ce partitionnement à différencier des troubles qui ne sont préalablement étiquetés. Notre but est d’utiliser le Deep Learning (ou apprentissage profond) afin de calculer, de façon simultanée, plusieurs partitionnements complémentaires entre eux [1]. De cette façon, certains de ces partitionnements devraient permettre d’identifier des groupes de patients qui auraient des caractères biologiques homogènes et révélateurs de leur état de santé.

Le Deep Learning [2] permet d’effectuer des traitements non-linéaires complexes sur les données. Durant ce stage, il s’agira donc d’identifier les architectures de réseaux les plus prometteuses en partitionnement multi-vues (chaque vue correspond à une façon différente de regrouper les données). Les architectures retenues seront alors appliquées aux données disponibles. Le stagiaire pourra s’appuyer sur des travaux méthodologiques récents [3] qui développent des méthodes de partitionnement multi-vues.

Bibliographie :

[1] U. Fang, M. Li, J. Li, L. Gao, T. Jia and Y. Zhang, “A Comprehensive Survey on Multi-View Clustering,” in IEEE Transactions on Knowledge and Data Engineering, vol. 35, no. 12, pp. 12350-12368, 2023.
[2] http://www.deeplearningbook.org/
[3] F. Falck, H. Zhang, M. Willetts, G. Nicholson, C.Yau and C. Holmes, Multi-facet clustering variational autoencoders, Advances in Neural Information Processing Systems, 2021.

Profil du candidat :
Stage M2/Ingénieur en mathématiques appliquées et/ou en informatique.

Envoyer son CV et ses résultats académiques niveau L1, L2, L3, M1 et M2 à lionel.fillatre@i3s.unice.fr

Formation et compétences requises :
Ces travaux requièrent les compétences suivantes :
– Programmation informatique : les développements informatiques seront réalisés en Python et Pytorch (connaître préalablement Python n’est pas nécessaire mais souhaitable)
– Notions de bases en machine learning (en particulier sur les réseaux de neurones).

Adresse d’emploi :
campus SophiaTech (Sophia Antipolis)

Stage M2/Ingénieur : Classification de lésions cutanées

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire I3S – Sophia Antipolis
Durée : 6 mois
Contact : lionel.fillatre@i3s.unice.fr
Date limite de publication : 2024-01-31

Contexte :
Contexte :

Il s’agit de développer un réseau de neurones profond pour classifier des images de lésions cutanées et proposer un score numérique qui mesure la qualité de la classification.

Sujet :
Objectif :

Les lésions cutanées sont une maladie grave à l’échelle mondiale [1]. Par exemple, la détection précoce du mélanome sur des images biomédicales augmente considérablement le taux de survie. Cependant, la reconnaissance précise d’une lésion cutanée est difficile. Une classification automatique et fiable des lésions cutanées est essentielle pour améliorer la précision et l’efficacité des traitements. Notre but est de développer une chaine de traitement afin d’identifier la lésion cutanée présente dans une image analysée. Cette chaine sera composée d’une étape de segmentation suivie par une étape de classification. Chaque élément de la chaine sera modélisé avec un réseau de neurones [2]. À terme, les deux réseaux de neurones pourront être fusionnés pour disposer d’un unique réseau qui effectue l’intégralité du traitement de l’image analysée. Pour l’étape de classification, nous utiliserons un algorithme récemment développé par notre équipe de recherche [3]. Le stagiaire aura à sa disposition de nombreuses images [4] pour entrainer et tester les algorithmes développés.

Bibliographie :

[1] J. Zhang, Y. Xie, Y. Xia and C. Shen, “Attention Residual Learning for Skin Lesion Classification,” in IEEE Transactions on Medical Imaging, vol. 38, no. 9, pp. 2092-2103, 2019.
[2] http://www.deeplearningbook.org/
[3] Marie Guyomard, Susana Barbosa, Lionel Fillatre, “Kernel Logistic Regression Approximation of an Understandable ReLU Neural Network”. ICML 2023, Honolulu, Hawaii, USA.
[4] https://dataverse.harvard.edu/dataset.xhtml?persistentId=doi:10.7910/DVN/DBW86T

Profil du candidat :
Stage niveau M2/Ingénieur en mathématiques appliquées et/ou en informatique.

Formation et compétences requises :
Profil recherché :

Ces travaux requièrent les compétences suivantes :
– Programmation informatique : les développements informatiques seront réalisés en Python et Pytorch (connaître préalablement Python n’est pas nécessaire mais souhaitable)
– Notions de bases en machine learning (en particulier sur les réseaux de neurones).

Adresse d’emploi :
Lieu du stage : campus SophiaTech (Sophia Antipolis).

Conception et implémentation d’un lac de données de robotique agricole

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : INRAE-Univ Clermont Auvergne
Durée : 5-6 mois
Contact : sandro.bimonte@inraefr
Date limite de publication : 2024-01-31

Contexte :
Pour accompagner la transition agroécologique, les robots ont un rôle essentiel à jouer dans le domaine de l’agriculture intelligente. Ils sont capables d’effectuer des opérations agricoles répétitives et précises sur une longue période avec un faible impact sur l’environnement.

Avec des équipements particuliers, et associés à des technologies d’acquisition et de traitement de données, les robots sont capables d’effectuer de manière autonome des tâches ciblées de manière efficace dans les champs.

De nombreux travaux de recherche portent sur l’agriculture intelligente. Dans le cadre du projet ISITE CAP2025, deux projets se sont intéressés à la gestion de données de l’agriculture. Le premier a réalisé une architecture Big Data pour le traitement des données des robots et des capteurs (avec Apache Kafka et Spark), ainsi qu’une base de données relationnelle pour stocker ces données. Le deuxième de type lac de données, le CEBA (Cloud Environnemental au Bénéfice de l’Auvergne), s’est intéressé à la collecte, l’ingestion et la restitution des données issues de capteurs bas débit en utilisant la pile Elastic et des bases de données relationnelles manipulant des données semi-structurée, sans fonctionnalité d’analyse.

Sujet :
Dans ce travail de stage, nous visons à mettre en place, dans le CEBA, un lac de données (data lake) complet (intégrant les outils des deux projets précédents) pour le stockage et l’exploration des données sources.

En particulier le travail consiste à :

– étudier et comparer les travaux existants sur les lacs de données spatiales : stockage et exploration

– caractériser les flux et implémenter un système d’ingestion (kafka, redpanda…)

– implémenter le système de stockage des données (ex. Apache Hadoop HDFS ou PostGIS)

– concevoir un modèle de métadonnées et implémenter un système de métadonnées

– implémenter un système d’exploration des données (ex. Apache Atlas, Open Metadata, Geonetwork, etc.)

Profil du candidat :
Master 2

Formation et compétences requises :
Outil Big Data (Hadoop, S3, Kafka)
Programmation: Java, Python, Spark
SQL, NoSQL

Adresse d’emploi :
Campus Cezeaux, Aubiere

Document attaché : 202401131652_sujetBigData.pdf

Geovisualization of big data for the supervision of agricultural autonomous robots

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : TSCF, INRAE
Durée : 5-6 mois
Contact : sandro.bimonte@inrae.fr
Date limite de publication : 2024-01-31

Contexte :
The main goal of agro-ecology is to provide new practices that respect the environment and grant good farming production. Internet of Things (IoT) and robots play an important role in this context. Indeed sensors are able to provide accurate pedo-climatic data and robots can be employed for repetitive and accurate agricultural tasks during a long period. Moreover, robots are usually supported by electrified engines and they are light, reducing the impact of soil compaction. Nowadays robots are arriving in farms, where several types of machines exist and cohabit: tractors and robots of different types. The main task of farmers and agricultural stakeholders is moving more and more towards managing this equipment and analyzing agronomic and economic data by means of Farm Management Information Systems (FMSIs). Existing FMSIs lack tools dedicated to the monitoring of fleets of diverse robots, which represents an important barrier to the growth of the usage of robots in the field and therefore of the agro-ecology development. Therefore, the need of a system being able to monitor the behavior of the robots in the field in real-time appears. TSCF, INRAE Clermont Ferrand have proposed an architecture (called LambAgrIoT) for robots monitoring and scheduling, based on a complex Big Data architecture (i.e. Lambda architecture) [1]. This architecture allows an effective management of real-time and historical data issued from sensors and robots. Although LambAgrIoT presents an effective data management framework for the storage and analysis of IoT and robotic agricultural data, the Stream Layer, which in in charge of managing real-time data, is supported by a simple web based client that do not allow an awareness monitoring of the on-going execution of the agricultural practice.

Data used by this system is BIG DATA. In particular the are are: (1) complex spatio-temporal data (e.g., robot trajectories, meteorological data); (2) stream data (e.g., from sensors deployed in fields), multimedia data (e.g., video, images) (3) historical data (e.g., warehoused data). These data are also acquired at different spatial and temporal scales (such as plot and city, second and hour). In order to take benefit from these data in such a supervision system, an ad-hoc geovisualization of these data must be provided

Sujet :
The main goal of this project is to define a data-driven geovisualization method that allows for an effective situation awareness of the fleet of robots supervision. Since data are too much, complex and at different temporal and spatial scales a new geovisualization method must be proposed in order to show to the end user “only” data that are relevant for his/her supervision task at the right moment. This means that the system must automatically propose the visualization method based on the real time data. To achieve this goal, a set of indicators/rules must be defined in order to choose the right geovisualization, and for each of them the most appropriate semiology must be used. Therefore, indicators/rules and data must be able to be presented to the user as a set of aggregated data in a dynamic and interactive way.

Planned work

Study existing work on geovisualization in the context of agricultural robots

Define the indicators/rules for changing visualization

Define the most appropriate geovisualization for each ‘state”

Study the Superob supervision system developed by INRAE [1]

Implement the proposal in SuperRob

Write the M2 report

Profil du candidat :
Master 2

Formation et compétences requises :
Web Development (HTML, CSS, JavaScript)

Wep mapping (Mapbox, Deck GL, etc.)

Adresse d’emploi :
9 Avenue Blaise Pascal, Aubiere

Document attaché : 202401131554_stageM2GeoVis (1).pdf

Poste de maître de conférence section 27, Sorbonne Université (LIMICS, ISIR, LIB)

Offre en lien avec l’Action/le Réseau : DOING/– — –

Laboratoire/Entreprise : LIMICS, ISIR, LIB
Durée : indéterminée
Contact : xavier.tannier@sorbonne-universite.fr
Date limite de publication : 2024-01-31

Contexte :

LIMICS – UMRS 1142 : Le Laboratoire d’Informatique Médicale et d’Ingénierie des Connaissances en e-Santé (www.limics.fr) est une unitéinterdisciplinaire constituée de chercheurs et chercheuses Inserm, d’enseignantes-chercheuses etd’enseignants-chercheurs en informatique et d’hospitalo-universitaires (médecins, pharmaciens et pharmaciennes).
Par ailleurs, pour une partie de ses activités, le laboratoire travaille étroitement avec les deux entrepôts de données desanté du CHU de Rouen et de l’AP-HP, avec un intérêt pour les approches combinant les données structurées, lesdonnées non structurées (en particulier textuelles) et les ressources externes (bases de connaissances, terminologies),ayant pour objectif une meilleure représentation des patients dans des tâches de caractérisation (phénotypage), deprédiction ou d’aide à la décision.C’est sur cet axe de recherche lié à l’apprentissage et l’analyse de données de santé, qu’elles proviennent d’entrepôts dedonnées, de bases de données locales ou des patients eux-mêmes, que le laboratoire souhaite mettre l’accent dans lecadre de ce poste.

LIB – UMR 7371 : Le LIB mène des recherches et développement en imagerie et biophysique avec transfert vers des plateformes d’imagerieprécliniques et cliniques. Le laboratoire dispose de larges bases de données d’images médicales expertisées et annotées (cardiaques, vasculaires,cerveau, moelle épinière, tumorales etc.) et des logiciels innovants d’analyse d’images. Plus d’informations sur lesrecherches du LIB peuvent être trouvées sur le site : https://www.lib.upmc.fr/.
Le LIB recherche un(e) candidat(e) ayant des compétences en IA (ex. apprentissage profond sur des images statiques oudes séries dynamiques, apprentissage par transfert inférence statistique) pour proposer des outils d’analyse d’imagesautomatisés (segmentation des structures, analyse des textures, anonymisation des images, control qualité des images,…) ainsi que la mise en place d’outils de classification et de prédiction en fusionnant des biomarqueurs extraits dedifférentes modalités d’imagerie non-invasive (IRM, échographie, scanner, médecine nucléaire), ou de différents organes(cœur-foie, artères-cerveau, …) dans un objectif ultime de médecine personnalisée.

ISIR – UMR 7222 :L’ISIR s’intéresse au développement de robots et de systèmes intelligents capables d’opérer de façon autonome dans des environnements non contrôlés, et d’interagir, de façon aussi naturelle que possible avec des humains. L’autonomie porte ici sur la capacité à faire face à des situations variées et non nécessairement anticipées.
Les travaux correspondants se focalisent en particulier sur des architectures cognitives dédiées ou sur des méthodesd’apprentissage, quel que soit l’apprentissage : avec ou sans gradient, statistique, heuristique ou bio-inspiré, sur un agentisolé ou dans un contexte social ou collectif. L’interaction (IHM) peut de même prendre diverses formes (verbale, gestuelle,etc.) et s’appuyer sur la conception de dispositifs, d’interfaces et de techniques d’interaction dédiées. L’étude de cesinteractions pourra se faire en particulier sous l’angle de l’apprentissage humain. La candidate ou le candidat devra développer des méthodes sur une ou plusieurs de ces thématiques et rejoindra un deséquipes du laboratoire, toutes étant potentiellement concernées par ce poste.

Sujet :
ENSEIGNEMENT

La personne recrutée interviendra de façon équilibrée sur les différents niveaux de formation, du L1 au M2.Elle contribuera significativement aux enseignements en Licence d’informatique dont les besoins couvrent l’ensemble de ladiscipline (algorithmique, programmation (notamment objet, concurrente, fonctionnelle, web …), mathématiques discrètes,structures de données, système, architecture, réseaux, compilation, bases de données …).

En Master, la personne recrutée renforcera les enseignements des différentes parcours en IA.

RECHERCHE

Le poste est ouvert à tous les domaines relatifs aux systèmes intelligents, incluant des approches logiques et/ounumériques d’intelligence artificielle.La personne retenue intégrera l’un des laboratoires ISIR, LIB, LIMICS selon ses thématiques de recherche, et pourraréaliser ses projets au sein de SCAI (Sorbonne Center for Artificial Intelligence). Les laboratoires manipulent des larges bases de données de santé (données de vie réelle hospitalières, imageriemédicale), de biologie et de robotique.

Profil du candidat :
La personne retenue intégrera l’un des laboratoires ISIR, LIB, LIMICS selon ses thématiques de recherche.
Les profils précis attendus par chaque laboratoire sont précisés ci-dessus, ainsi que sur cette fiche : https://dropsu.sorbonne-universite.fr/s/jxfHk4Q635Xrya6

Formation et compétences requises :
Titulaire d’un Doctorat en Informatique (ou un diplôme équivalent)

Adresse d’emploi :
Sorbonne Université
Pour l’ISIR : 4 place Jussieu, PARIS
Pour le LIB et le LIMICS : 15 rue de l’école de médecine, PARIS

Poste MCF en section 27, Université Paris Cité – LIPADE (Image, vision) / IUT (programmation, algorithmes)

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Université Paris Cité, LIPADE
Durée : Poste permanent
Contact : laurent.wendling@u-paris.fr
Date limite de publication : 2024-01-31

Contexte :
Un poste de maître de conférences en informatique (section CNU 27) est susceptible d’être vacant au département informatique de l’IUT Paris Rives de Seine (Université Paris Cité) pour une intégration scientifique possible dans l’équipe SIP (https://sip.mi.parisdescartes.fr/) du Laboratoire LIPADE (http://lipade.math-info.univ-paris5.fr/).

– Date d’ouverture des candidatures : 02/02/2024

– Date de fermeture des candidatures : 06/03/2024

– Date de prise de fonction : 01/09/2024

Fiche Galaxie :

https://www.galaxie.enseignementsup-recherche.gouv.fr/ensup/ListesPostesPublies/FIDIS/0755976N/FOPC_0755976N_465.pdf

Sujet :
Recherche :

La personne recrutée intégrera et renforcera l’équipe de recherche Systèmes Intelligents de Perception (SIP) du LIPADE. L’objectif de l’équipe SIP est de développer des méthodes issues de la reconnaissance de formes, de l’analyse d’images et de la théorie de l’intelligence artificielle afin de fournir des solutions fonctionnelles.

Trois axes thématiques de recherche sont particulièrement explorés (image de documents, satellitaire et médicale) où la sémantique de l’image est très forte.

Le profil recherche est axé en priorité sur les thématiques de recherche du pôle SIP, notamment quelqu’un pouvant apporter ses compétences dans un de ces axes et/ou dans le développement de nouveaux algorithmes et méthodes pour traiter et analyser des images complexes (comme la segmentation d’images multi-sources, la reconstruction d’images 3D, la fusion d’images, la modélisation de relations spatiales, l’indexation et la recherche sémantique d’images…).

Mots-clés : Image, Vision par ordinateur, Reconnaissances des formes

Enseignement :

Le maître de conférences recruté s’intégrera à l’équipe pédagogique du département Informatique de l’IUT de Paris – Rives de Seine. Les enseignements s’adressent principalement à des étudiants de BUT 2 Informatique et la licence MIAGE.

Il se verra confier des enseignements variés, tant dans le contenu que dans les formes d’enseignement (cours, TD, TP, projets tuteurés…). Par ailleurs, il interviendra dans les projets personnels à caractère professionnel, les Situations d’apprentissage et d’évaluation (SAé), les suivis de stages et participera à la vie du département notamment par des prises de responsabilités.

Les candidatures présentant des compétences en algorithmique fondamentale, en structures de données abstraites, en programmation impérative / objet (C, C++, Java, VB, mobile, Web, …), en conception de logiciel seront particulièrement appréciées et plus généralement dans l’un des champs disciplinaires couverts par le programme national du BUT Informatique.

Le Bachelor Universitaire de Technologie Informatique et la licence générale MIAGE : https://iutparisseine.u-paris.fr/informatique/

Contacts :

Recherche (équipe SIP, LIPADE) :

– Laurent Wendling (responsable équipe),

– Florence Cloppet

Enseignements (IUT) :

– Jérôme Fessy (directeur du département Informatique de l’IUT Paris Rives de Seine)

Profil du candidat :
na

Formation et compétences requises :
na

Adresse d’emploi :
Université Paris Cité
85 boulevard Saint-Germain, 06e arr.
75006 Paris

Reconnaissance et transcription des informations textuelles figurant sur des cartes anciennes

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LASTIG
Durée : 5 mois
Contact : nathalie-f.abadie@ign.fr
Date limite de publication : 2024-01-31

Contexte :
Il existe des solutions de plus en plus performantes pour détecter et transcrire du texte dans des scènes ou dans des documents. Peu à peu, celles-ci sont également appliquées à des cartes scannées pour en extraire et transcrire les écritures. En effet, extraire les noms de lieux contenus dans les cartes anciennes permettrait d’indexer spatialement les grands corpus de cartes numérisés par différentes institutions, mais pas nécessairement géoréférencées. Par ailleurs, c’est un moyen de constituer ou d’enrichir automatiquement des gazetiers utiles à la géolocalisation d’autres ressources (cartographiques ou textuelles).
Nous souhaitons appliquer des méthodes d’extraction et de reconnaissance des toponymes à différents types de cartes anciennes :
– des cartes topographiques du territoire (carte de Cassini ou carte d’état major),
– des plans à grande échelle, comme ceux du cadastre napoléonien, qui contiennent des toponymes et éventuellement des numéros de parcelles. Ces derniers permettent de localiser
les entités géographiques mentionnées dans les matrices cadastrales.
Les principales difficultés d’extraction sont liées à la grande variabilité des styles de cartes, aux multiples polices ou graphies d’écriture, au placement et à l’orientation des écritures dans les cartes, ainsi qu’aux recouvrements entre le texte et les objets géographiques représentés. Par ailleurs, les modèles à base de réseaux de neurones profonds utilisés pour détecter du texte dans les images nécessitent de disposer de grands corpus annotés pour être entraînés. Or, il n’existe pas de corpus de ce type, utilisable pour entraîner des modèles de reconnaissance du texte dans des cartes et sa production semble difficilement réalisable car chaque type de carte est différent, les styles des fonds et des textes changent.

Sujet :
L’objectif de ce stage est de produire des modèles entraînés avec peu d’exemples et capables de s’adapter à des types de cartes totalement inédits. Pour cela, les pistes suivantes devront
être explorées :
– Utilisation de modèles de détection de texte dans des scènes naturelles pour détecter les écritures dans des cartes ;
– Génération d’un jeu de données synthétique à partir du cadastre moderne (transfert de style des cartes du cadastre ancien) ;
– Proposition d’une approche de découpage de la carte selon les limites de la zone cartographiée.
Productions attendues:
➔ Corpus d’entraînement et de test pour la détection, la classification et la reconnaissance des écritures dans les cartes anciennes;
➔ Modèles entraînés + le code déposé sur un Github;
➔ Mémoire de stage.

Profil du candidat :
– Extraction d’informations dans des images (scans de cartes, images aériennes, images au sol type StreetView, etc.) : segmentation sémantique d’images, OCR, HTR, etc.
– Données géographiques structurées,
– Développement Python,
– Un intérêt pour la cartographie historique est un plus.

Formation et compétences requises :
Master 2 ou troisième année d’école d’ingénieur en informatique, en géomatique ou en humanités numériques.

Adresse d’emploi :
Institut National de l’Information Géographique et Forestière (IGN),
Saint-Mandé (métro 1, station Saint Mandé) ou Ecole Nationale des Sciences Géographiques (ENSG), Champs-sur-Marne (RER A, station Noisy-Champs).

Document attaché : 202401111433_2024_StageExtractionTexteCartesAnciennes.pdf