JFMS 2024: Journées Francophones de la Modélisation et de la Simulation

Annonce en lien avec l’Action/le Réseau :

Thème :

Simulation, Optimisation, Modélisation, Systèmes Multi-Agents

Présentation :

Les Journées Francophones de la Modélisation et de la Simulation (JFMS) et le workshop du réseau DEVS seront organisées du 4 au 8 novembre 2024 à l’IES de Cargèse.
Les JFMS sont placées sous le signe de l’échange et de la convivialité, pour discuter et partager des concepts, des méthodes et des outils propres à la Modélisation et à la Simulation (M&S).
Pour cette nouvelle édition, notre évènement est organisé conjointement avec les JFSMA et Sébastien Picault responsable du comité de programme.

Du : 2024-11-04

Au : 2024-11-08

Lieu : IES de Cargèse (Corse)

Site Web : https://devs-network.org/jfms-2024/

Reasoning and Provenance on Neural Networks

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIG, Université Grenoble Alpes & Inria
Durée : 6 mois
Contact : silviu.maniu@univ-grenoble-alpes.fr
Date limite de publication : 2024-02-11

Contexte :
Artificial intelligence and neural networks in particular have brought unprecedented progress in recent years in important areas such as language, vision and control, among others. However, two important challenges remain. First, some of the simplest fundamental traits of human intelligence such as generalization and basic logical reasoning, remain difficult to realize and integrate, as neural architectures do not allow adding logic rules to their optimizations. Secondly, there is no sound and generic way to integrate explanations into their architecture or to track from where and how the outputs were computed.

This lack of understanding, reasoning, and traceability translates into a fundamental weakness of AI in terms of explainability and accountability. As a result, AI-based methods are commonly used as “black boxes” where it is difficult to to evaluate or identify why a particular network or part of a network works well or poorly to accomplish a particular task: the knowledge processed (relations, concepts) is not explicitly shown. **Neuro-symbolic AI** is an area of research that has become particularly active in bridging this gap, studying methods for **combining symbolic knowledge representation and reasoning with deep learning**. An important challenge is the combination of two completely different worlds: Euclidean spaces for learning, and symbolic logic for reasoning. This implies moving from the world of symbolic logic with Boolean interpretation to fuzzy or probabilistic interpretations, by integrating probabilities into the logic.

Going further, neural architectures (neuro-symbolic or otherwise) would benefit greatly from the ability to explain the results of their reasoning. This can be achieved by **annotating the parts of the neural computation graph**. In this manner one can track what has been used in the answer to the query or how the data was transformed; this is known as **provenance** or **lineage**.

Sujet :
The proposed internship aims at covering at least one of the following two objectives:

1. To investigate theoretical and practical methods for querying data structures built from noisy and incomplete data, i.e. to develop approaches with high tolerance to noise and missing data, while enabling reasoning capabilities that are beyond the reach of current sub-symbolic systems (neural networks).

2. To extend the probabilistic annotations used in neuro-symbolic computing with provenance annotations, in order to also provide explanation for the output and the reasoning. This can be achieved by extending previous work on graph queries and provenance.

Profil du candidat :
We are interested in students able to obtain _working implementations_, possibly directly in popular frameworks such as PyTorch or Tensorflow, and evaluation over _real-world_ datasets.

The offer is in a laboratory belonging to a ZRR, hence special access permissions are required. The internship can take place only if these permissions are given.

Formation et compétences requises :
Master student in Compute Science, data-related, M1 or M2.

Programming skills (Python, etc.) required.

Adresse d’emploi :
Laboratoire d’Informatique de Grenoble, UMR 5217
Bâtiment IMAG – 150 place du Torrent
Domaine universitaire de Saint-Martin-d’Hères

Vision par ordinateur embarquée pour le suivi d’une colonie de phoques

Offre en lien avec l’Action/le Réseau : – — –/Innovation

Laboratoire/Entreprise : L@bISEN Yncréa Ouest, Equipe Vision-AD, Nantes
Durée : 4 à 6 mois
Contact : ayoub.karine@yncrea.fr
Date limite de publication : 2024-02-11

Contexte :
Situé dans la réserve naturelle nationale d’Iroise, l’îlot de Morgol est le principal îlot accueillant des phoques gris dans l’archipel de Molène. Un observatoire permettait ces dernières années d’effectuer le comptage des individus ainsi que le suivi des naissances à distance, jusqu’à sa destruction à la suite d’intempéries. L’Office Français de la Biodiversité (et le Parc naturel marin d’Iroise) souhaite qu’un nouveau dispositif de suivi de la faune sauvage de l’îlot de Morgol soit mis au point, avec comme objectif de minimiser les perturbations humaines et non
humaines. Outre les équipements placés physiquement sur l’îlot, l’observatoire sera doté d’une plateforme logicielle qui implémente des algorithmes intelligents de détection de débarquement afin de continuer la surveillance de cet îlot aujourd’hui interdit au public.

Sujet :
Ce stage a pour but de mettre en oeuvre la partie intelligence artificielle du projet. En particulier, il est souhaité que les données vidéos issues de la caméra et sauvegardées sur l’unité
de stockage déportée à terre seront analysées en continu pour fournir : (1) une alerte en cas de débarquement sur l’îlot de Morgol et (2) une information approximative du nombre de phoques gris sur l’îlot. Ces deux types d’informations pourront être disponibles à travers un fichier Excel par exemple. Il est important de noter qu’une première version de ces analyses a été réalisée pour la précédente version du système[1] (avant sa destruction par les intempéries).
La première tâche sera réalisée en utilisant un système d’intelligence artificielle basé sur un réseau de neurones profond de type CNN spécialisé dans la détection[2]. Ce dernier sera optimisé pour détecter les classes « bateau » et « humain » et entraîné avec une base de données adaptée comme COCO par exemple. Cette intelligence artificielle sera associée à un outil de
régularisation permettant de traiter temporellement les données pour éviter : (i) les détections multiples d’un même évènement ainsi que (ii) les éventuelles fausses alarmes. Ainsi, la détection
d’évènements de type « débarquement » sera possible. Il est important de noter que l’évaluation de la performance de ce système en situation réelle ne sera pas possible si aucune base de données d’évènements annotés n’est disponible.
La seconde tâche, plus expérimentale, sera aussi réalisée avec un réseau de neurones profond de type CNN possiblement orienté vers l’estimation d’individus dans les foules[3]. Le but de ce système d’intelligence artificielle sera de fournir une estimation du nombre de phoques gris sur l’îlot de Morgol à intervalle régulier (à définir). Afin d’entraîner cet algorithme, des vidéos contenant une variété de densité de phoques gris devront être rendues disponibles afin de compléter la base de données annotée déjà disponible, si cela est nécessaire.
Pour les deux tâches détaillées ci-dessus, les traitements réalisés ne seront exploitables que pour des images fixes et lorsque la visibilité sur l’îlot le permet. Afin de réaliser ces tâches d’intelligence artificielle sur les données en temps réel, une unité de calcul de type Jetson Nano Orin sera utilisée et connectée en réseau avec l’unité de stockage. Celle-ci devra embarquer les deux algorithmes d’intelligence artificielle mis au point (détection des débarquemens et comptage des phoques) en s’appuyant par exemple sur des stratégie d’embarquement comme PyTorch
Mobile[4], ONNX[5] ou TensorRT[6].
** Références :
[1] Ayoub Karine, Jean-Yves Mulot, Yves Auffret, Thibault Napoléon, “Video Seals Recognition using Transfer Learning of Convolutional Neural Network” in International Conference on
Image Processing Theory, Tools and Applications IPTA 2020, Nov 2020, Paris, France.
[2] G. Cheng et al., “Towards Large-Scale Small Object Detection : Survey and Benchmarks” in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 45, no. 11, pp.
13467-13488, 1 Nov. 2023.
[3] Vishwanath A. Sindagi abd Vishal M. Patel, “A survey of recent advances in CNN-based single image crowd counting and density estimation” in Pattern Recognition Letters, vol. 107, pp. 3-16, 2018.
[4] https ://pytorch.org/mobile/home/
[5] https ://onnx.ai/
[6] https ://developer.nvidia.com/tensorrt

Profil du candidat :
Master 2

Formation et compétences requises :
Le candidat doit avoir :
• suivi un cursus de Master ou d’Ingénieur dans un des domaines suivants : intelligence artificielle, vision par ordinateur, science des données, mathématiques appliquées ;
• de solides compétences en algorithmique et en programmation ;
• des connaissances en vision par ordinateur appliquée ;
• une connaissance de la bibliothèque PyTorch serait un plus.

Adresse d’emploi :
33 QUATER Av. du Champ de Manœuvre, 44470 Carquefou

Document attaché : 202401151028_SujetM2_visionEmbarquée.pdf

Continuous queries over trajectory robots data

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : INRAE
Durée : 5-6 mois
Contact : sandro.bimonte@inrae.fr
Date limite de publication : 2024-01-31

Contexte :
Autonomous robots move on plots to perform technical tasks such as mechanical weeding. They are programmed to perform these tasks by minimizing movement on plots, via trajectories planned, while avoiding potential fixed obstacles (such as a root or a pole) or mobile (human, animals, or vehicle) requiring a deviation to the trajectory predefined. Therefore, robots are the main sources of a trajectory data stream. This stream needs to be continuously queried in order to identify patterns and outliers. For example, every second the farmer could be interested to know if a possible collision among robots will happen. This kind of queries are implemented by Data Stream Management Systems (DSMSs). To the best of our knowledge, DSMSs have not been benchmarked for querying robot data, yet.

Sujet :
In this project we will study the existing open source DSMSs that can be integrated with our supervision system LambdAgrIoT [1].

The study is conducted over two features, namely: querying capabilities and performance. Then, the best solution will be integrated into LambdAgrIoT.

Work plan
Analysis of existing work on trajectory stream querying (Spark Streaming, Flink, etc.)
Benchmark existing DSMSs
Integration in the LambdAgrIoT system of the chosen solution
Implement the web interface to visualize the results

Profil du candidat :
Master 2

Formation et compétences requises :
Skills: SQL, Java, Web programming, DSMSs (Spark Streaming, Flink, etc.) (optional), Kafka (optional), Grafana (optional)

Adresse d’emploi :
Aubiere, Campus Cezaux

Document attaché : 202401141146_Stage M2_ Continuous queries over trajectory robots data (1).pdf

Stage M2/Ingénieur : Multi-view clustering

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire I3S – Sophia Antipolis
Durée : 6 mois
Contact : lionel.fillatre@i3s.unice.fr
Date limite de publication : 2024-01-31

Contexte :
Il s’agit de développer un réseau de neurones profond pour partitionner, de façon non-supervisée, un ensemble de données selon plusieurs points de vue.

Ce sujet de stage est réalisé dans le cadre d’un projet ANR. En fonction des résultats obtenus, le stagiaire pourra poursuivre en thèse (financement déjà obtenu).

Sujet :
Objectif :

Nous disposons de données biomédicales qui concernent des patients atteints de troubles mentaux. Nous souhaitons développer un algorithme de partitionnement (« clustering ») qui nous permet de regrouper ces patients en différents groupes. Ce partitionnement devrait nous permettre d’identifier les caractéristiques communes qui sont partagés par les patients qui souffrent d’un même trouble mental. Un seul partitionnement est souvent peu informatif car il est difficile de forcer ce partitionnement à différencier des troubles qui ne sont préalablement étiquetés. Notre but est d’utiliser le Deep Learning (ou apprentissage profond) afin de calculer, de façon simultanée, plusieurs partitionnements complémentaires entre eux [1]. De cette façon, certains de ces partitionnements devraient permettre d’identifier des groupes de patients qui auraient des caractères biologiques homogènes et révélateurs de leur état de santé.

Le Deep Learning [2] permet d’effectuer des traitements non-linéaires complexes sur les données. Durant ce stage, il s’agira donc d’identifier les architectures de réseaux les plus prometteuses en partitionnement multi-vues (chaque vue correspond à une façon différente de regrouper les données). Les architectures retenues seront alors appliquées aux données disponibles. Le stagiaire pourra s’appuyer sur des travaux méthodologiques récents [3] qui développent des méthodes de partitionnement multi-vues.

Bibliographie :

[1] U. Fang, M. Li, J. Li, L. Gao, T. Jia and Y. Zhang, “A Comprehensive Survey on Multi-View Clustering,” in IEEE Transactions on Knowledge and Data Engineering, vol. 35, no. 12, pp. 12350-12368, 2023.
[2] http://www.deeplearningbook.org/
[3] F. Falck, H. Zhang, M. Willetts, G. Nicholson, C.Yau and C. Holmes, Multi-facet clustering variational autoencoders, Advances in Neural Information Processing Systems, 2021.

Profil du candidat :
Stage M2/Ingénieur en mathématiques appliquées et/ou en informatique.

Envoyer son CV et ses résultats académiques niveau L1, L2, L3, M1 et M2 à lionel.fillatre@i3s.unice.fr

Formation et compétences requises :
Ces travaux requièrent les compétences suivantes :
– Programmation informatique : les développements informatiques seront réalisés en Python et Pytorch (connaître préalablement Python n’est pas nécessaire mais souhaitable)
– Notions de bases en machine learning (en particulier sur les réseaux de neurones).

Adresse d’emploi :
campus SophiaTech (Sophia Antipolis)

Stage M2/Ingénieur : Classification de lésions cutanées

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire I3S – Sophia Antipolis
Durée : 6 mois
Contact : lionel.fillatre@i3s.unice.fr
Date limite de publication : 2024-01-31

Contexte :
Contexte :

Il s’agit de développer un réseau de neurones profond pour classifier des images de lésions cutanées et proposer un score numérique qui mesure la qualité de la classification.

Sujet :
Objectif :

Les lésions cutanées sont une maladie grave à l’échelle mondiale [1]. Par exemple, la détection précoce du mélanome sur des images biomédicales augmente considérablement le taux de survie. Cependant, la reconnaissance précise d’une lésion cutanée est difficile. Une classification automatique et fiable des lésions cutanées est essentielle pour améliorer la précision et l’efficacité des traitements. Notre but est de développer une chaine de traitement afin d’identifier la lésion cutanée présente dans une image analysée. Cette chaine sera composée d’une étape de segmentation suivie par une étape de classification. Chaque élément de la chaine sera modélisé avec un réseau de neurones [2]. À terme, les deux réseaux de neurones pourront être fusionnés pour disposer d’un unique réseau qui effectue l’intégralité du traitement de l’image analysée. Pour l’étape de classification, nous utiliserons un algorithme récemment développé par notre équipe de recherche [3]. Le stagiaire aura à sa disposition de nombreuses images [4] pour entrainer et tester les algorithmes développés.

Bibliographie :

[1] J. Zhang, Y. Xie, Y. Xia and C. Shen, “Attention Residual Learning for Skin Lesion Classification,” in IEEE Transactions on Medical Imaging, vol. 38, no. 9, pp. 2092-2103, 2019.
[2] http://www.deeplearningbook.org/
[3] Marie Guyomard, Susana Barbosa, Lionel Fillatre, “Kernel Logistic Regression Approximation of an Understandable ReLU Neural Network”. ICML 2023, Honolulu, Hawaii, USA.
[4] https://dataverse.harvard.edu/dataset.xhtml?persistentId=doi:10.7910/DVN/DBW86T

Profil du candidat :
Stage niveau M2/Ingénieur en mathématiques appliquées et/ou en informatique.

Formation et compétences requises :
Profil recherché :

Ces travaux requièrent les compétences suivantes :
– Programmation informatique : les développements informatiques seront réalisés en Python et Pytorch (connaître préalablement Python n’est pas nécessaire mais souhaitable)
– Notions de bases en machine learning (en particulier sur les réseaux de neurones).

Adresse d’emploi :
Lieu du stage : campus SophiaTech (Sophia Antipolis).

Conception et implémentation d’un lac de données de robotique agricole

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : INRAE-Univ Clermont Auvergne
Durée : 5-6 mois
Contact : sandro.bimonte@inraefr
Date limite de publication : 2024-01-31

Contexte :
Pour accompagner la transition agroécologique, les robots ont un rôle essentiel à jouer dans le domaine de l’agriculture intelligente. Ils sont capables d’effectuer des opérations agricoles répétitives et précises sur une longue période avec un faible impact sur l’environnement.

Avec des équipements particuliers, et associés à des technologies d’acquisition et de traitement de données, les robots sont capables d’effectuer de manière autonome des tâches ciblées de manière efficace dans les champs.

De nombreux travaux de recherche portent sur l’agriculture intelligente. Dans le cadre du projet ISITE CAP2025, deux projets se sont intéressés à la gestion de données de l’agriculture. Le premier a réalisé une architecture Big Data pour le traitement des données des robots et des capteurs (avec Apache Kafka et Spark), ainsi qu’une base de données relationnelle pour stocker ces données. Le deuxième de type lac de données, le CEBA (Cloud Environnemental au Bénéfice de l’Auvergne), s’est intéressé à la collecte, l’ingestion et la restitution des données issues de capteurs bas débit en utilisant la pile Elastic et des bases de données relationnelles manipulant des données semi-structurée, sans fonctionnalité d’analyse.

Sujet :
Dans ce travail de stage, nous visons à mettre en place, dans le CEBA, un lac de données (data lake) complet (intégrant les outils des deux projets précédents) pour le stockage et l’exploration des données sources.

En particulier le travail consiste à :

– étudier et comparer les travaux existants sur les lacs de données spatiales : stockage et exploration

– caractériser les flux et implémenter un système d’ingestion (kafka, redpanda…)

– implémenter le système de stockage des données (ex. Apache Hadoop HDFS ou PostGIS)

– concevoir un modèle de métadonnées et implémenter un système de métadonnées

– implémenter un système d’exploration des données (ex. Apache Atlas, Open Metadata, Geonetwork, etc.)

Profil du candidat :
Master 2

Formation et compétences requises :
Outil Big Data (Hadoop, S3, Kafka)
Programmation: Java, Python, Spark
SQL, NoSQL

Adresse d’emploi :
Campus Cezeaux, Aubiere

Document attaché : 202401131652_sujetBigData.pdf

Geovisualization of big data for the supervision of agricultural autonomous robots

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : TSCF, INRAE
Durée : 5-6 mois
Contact : sandro.bimonte@inrae.fr
Date limite de publication : 2024-01-31

Contexte :
The main goal of agro-ecology is to provide new practices that respect the environment and grant good farming production. Internet of Things (IoT) and robots play an important role in this context. Indeed sensors are able to provide accurate pedo-climatic data and robots can be employed for repetitive and accurate agricultural tasks during a long period. Moreover, robots are usually supported by electrified engines and they are light, reducing the impact of soil compaction. Nowadays robots are arriving in farms, where several types of machines exist and cohabit: tractors and robots of different types. The main task of farmers and agricultural stakeholders is moving more and more towards managing this equipment and analyzing agronomic and economic data by means of Farm Management Information Systems (FMSIs). Existing FMSIs lack tools dedicated to the monitoring of fleets of diverse robots, which represents an important barrier to the growth of the usage of robots in the field and therefore of the agro-ecology development. Therefore, the need of a system being able to monitor the behavior of the robots in the field in real-time appears. TSCF, INRAE Clermont Ferrand have proposed an architecture (called LambAgrIoT) for robots monitoring and scheduling, based on a complex Big Data architecture (i.e. Lambda architecture) [1]. This architecture allows an effective management of real-time and historical data issued from sensors and robots. Although LambAgrIoT presents an effective data management framework for the storage and analysis of IoT and robotic agricultural data, the Stream Layer, which in in charge of managing real-time data, is supported by a simple web based client that do not allow an awareness monitoring of the on-going execution of the agricultural practice.

Data used by this system is BIG DATA. In particular the are are: (1) complex spatio-temporal data (e.g., robot trajectories, meteorological data); (2) stream data (e.g., from sensors deployed in fields), multimedia data (e.g., video, images) (3) historical data (e.g., warehoused data). These data are also acquired at different spatial and temporal scales (such as plot and city, second and hour). In order to take benefit from these data in such a supervision system, an ad-hoc geovisualization of these data must be provided

Sujet :
The main goal of this project is to define a data-driven geovisualization method that allows for an effective situation awareness of the fleet of robots supervision. Since data are too much, complex and at different temporal and spatial scales a new geovisualization method must be proposed in order to show to the end user “only” data that are relevant for his/her supervision task at the right moment. This means that the system must automatically propose the visualization method based on the real time data. To achieve this goal, a set of indicators/rules must be defined in order to choose the right geovisualization, and for each of them the most appropriate semiology must be used. Therefore, indicators/rules and data must be able to be presented to the user as a set of aggregated data in a dynamic and interactive way.

Planned work

Study existing work on geovisualization in the context of agricultural robots

Define the indicators/rules for changing visualization

Define the most appropriate geovisualization for each ‘state”

Study the Superob supervision system developed by INRAE [1]

Implement the proposal in SuperRob

Write the M2 report

Profil du candidat :
Master 2

Formation et compétences requises :
Web Development (HTML, CSS, JavaScript)

Wep mapping (Mapbox, Deck GL, etc.)

Adresse d’emploi :
9 Avenue Blaise Pascal, Aubiere

Document attaché : 202401131554_stageM2GeoVis (1).pdf

Poste de maître de conférence section 27, Sorbonne Université (LIMICS, ISIR, LIB)

Offre en lien avec l’Action/le Réseau : DOING/– — –

Laboratoire/Entreprise : LIMICS, ISIR, LIB
Durée : indéterminée
Contact : xavier.tannier@sorbonne-universite.fr
Date limite de publication : 2024-01-31

Contexte :

LIMICS – UMRS 1142 : Le Laboratoire d’Informatique Médicale et d’Ingénierie des Connaissances en e-Santé (www.limics.fr) est une unitéinterdisciplinaire constituée de chercheurs et chercheuses Inserm, d’enseignantes-chercheuses etd’enseignants-chercheurs en informatique et d’hospitalo-universitaires (médecins, pharmaciens et pharmaciennes).
Par ailleurs, pour une partie de ses activités, le laboratoire travaille étroitement avec les deux entrepôts de données desanté du CHU de Rouen et de l’AP-HP, avec un intérêt pour les approches combinant les données structurées, lesdonnées non structurées (en particulier textuelles) et les ressources externes (bases de connaissances, terminologies),ayant pour objectif une meilleure représentation des patients dans des tâches de caractérisation (phénotypage), deprédiction ou d’aide à la décision.C’est sur cet axe de recherche lié à l’apprentissage et l’analyse de données de santé, qu’elles proviennent d’entrepôts dedonnées, de bases de données locales ou des patients eux-mêmes, que le laboratoire souhaite mettre l’accent dans lecadre de ce poste.

LIB – UMR 7371 : Le LIB mène des recherches et développement en imagerie et biophysique avec transfert vers des plateformes d’imagerieprécliniques et cliniques. Le laboratoire dispose de larges bases de données d’images médicales expertisées et annotées (cardiaques, vasculaires,cerveau, moelle épinière, tumorales etc.) et des logiciels innovants d’analyse d’images. Plus d’informations sur lesrecherches du LIB peuvent être trouvées sur le site : https://www.lib.upmc.fr/.
Le LIB recherche un(e) candidat(e) ayant des compétences en IA (ex. apprentissage profond sur des images statiques oudes séries dynamiques, apprentissage par transfert inférence statistique) pour proposer des outils d’analyse d’imagesautomatisés (segmentation des structures, analyse des textures, anonymisation des images, control qualité des images,…) ainsi que la mise en place d’outils de classification et de prédiction en fusionnant des biomarqueurs extraits dedifférentes modalités d’imagerie non-invasive (IRM, échographie, scanner, médecine nucléaire), ou de différents organes(cœur-foie, artères-cerveau, …) dans un objectif ultime de médecine personnalisée.

ISIR – UMR 7222 :L’ISIR s’intéresse au développement de robots et de systèmes intelligents capables d’opérer de façon autonome dans des environnements non contrôlés, et d’interagir, de façon aussi naturelle que possible avec des humains. L’autonomie porte ici sur la capacité à faire face à des situations variées et non nécessairement anticipées.
Les travaux correspondants se focalisent en particulier sur des architectures cognitives dédiées ou sur des méthodesd’apprentissage, quel que soit l’apprentissage : avec ou sans gradient, statistique, heuristique ou bio-inspiré, sur un agentisolé ou dans un contexte social ou collectif. L’interaction (IHM) peut de même prendre diverses formes (verbale, gestuelle,etc.) et s’appuyer sur la conception de dispositifs, d’interfaces et de techniques d’interaction dédiées. L’étude de cesinteractions pourra se faire en particulier sous l’angle de l’apprentissage humain. La candidate ou le candidat devra développer des méthodes sur une ou plusieurs de ces thématiques et rejoindra un deséquipes du laboratoire, toutes étant potentiellement concernées par ce poste.

Sujet :
ENSEIGNEMENT

La personne recrutée interviendra de façon équilibrée sur les différents niveaux de formation, du L1 au M2.Elle contribuera significativement aux enseignements en Licence d’informatique dont les besoins couvrent l’ensemble de ladiscipline (algorithmique, programmation (notamment objet, concurrente, fonctionnelle, web …), mathématiques discrètes,structures de données, système, architecture, réseaux, compilation, bases de données …).

En Master, la personne recrutée renforcera les enseignements des différentes parcours en IA.

RECHERCHE

Le poste est ouvert à tous les domaines relatifs aux systèmes intelligents, incluant des approches logiques et/ounumériques d’intelligence artificielle.La personne retenue intégrera l’un des laboratoires ISIR, LIB, LIMICS selon ses thématiques de recherche, et pourraréaliser ses projets au sein de SCAI (Sorbonne Center for Artificial Intelligence). Les laboratoires manipulent des larges bases de données de santé (données de vie réelle hospitalières, imageriemédicale), de biologie et de robotique.

Profil du candidat :
La personne retenue intégrera l’un des laboratoires ISIR, LIB, LIMICS selon ses thématiques de recherche.
Les profils précis attendus par chaque laboratoire sont précisés ci-dessus, ainsi que sur cette fiche : https://dropsu.sorbonne-universite.fr/s/jxfHk4Q635Xrya6

Formation et compétences requises :
Titulaire d’un Doctorat en Informatique (ou un diplôme équivalent)

Adresse d’emploi :
Sorbonne Université
Pour l’ISIR : 4 place Jussieu, PARIS
Pour le LIB et le LIMICS : 15 rue de l’école de médecine, PARIS

Poste MCF en section 27, Université Paris Cité – LIPADE (Image, vision) / IUT (programmation, algorithmes)

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Université Paris Cité, LIPADE
Durée : Poste permanent
Contact : laurent.wendling@u-paris.fr
Date limite de publication : 2024-01-31

Contexte :
Un poste de maître de conférences en informatique (section CNU 27) est susceptible d’être vacant au département informatique de l’IUT Paris Rives de Seine (Université Paris Cité) pour une intégration scientifique possible dans l’équipe SIP (https://sip.mi.parisdescartes.fr/) du Laboratoire LIPADE (http://lipade.math-info.univ-paris5.fr/).

– Date d’ouverture des candidatures : 02/02/2024

– Date de fermeture des candidatures : 06/03/2024

– Date de prise de fonction : 01/09/2024

Fiche Galaxie :

https://www.galaxie.enseignementsup-recherche.gouv.fr/ensup/ListesPostesPublies/FIDIS/0755976N/FOPC_0755976N_465.pdf

Sujet :
Recherche :

La personne recrutée intégrera et renforcera l’équipe de recherche Systèmes Intelligents de Perception (SIP) du LIPADE. L’objectif de l’équipe SIP est de développer des méthodes issues de la reconnaissance de formes, de l’analyse d’images et de la théorie de l’intelligence artificielle afin de fournir des solutions fonctionnelles.

Trois axes thématiques de recherche sont particulièrement explorés (image de documents, satellitaire et médicale) où la sémantique de l’image est très forte.

Le profil recherche est axé en priorité sur les thématiques de recherche du pôle SIP, notamment quelqu’un pouvant apporter ses compétences dans un de ces axes et/ou dans le développement de nouveaux algorithmes et méthodes pour traiter et analyser des images complexes (comme la segmentation d’images multi-sources, la reconstruction d’images 3D, la fusion d’images, la modélisation de relations spatiales, l’indexation et la recherche sémantique d’images…).

Mots-clés : Image, Vision par ordinateur, Reconnaissances des formes

Enseignement :

Le maître de conférences recruté s’intégrera à l’équipe pédagogique du département Informatique de l’IUT de Paris – Rives de Seine. Les enseignements s’adressent principalement à des étudiants de BUT 2 Informatique et la licence MIAGE.

Il se verra confier des enseignements variés, tant dans le contenu que dans les formes d’enseignement (cours, TD, TP, projets tuteurés…). Par ailleurs, il interviendra dans les projets personnels à caractère professionnel, les Situations d’apprentissage et d’évaluation (SAé), les suivis de stages et participera à la vie du département notamment par des prises de responsabilités.

Les candidatures présentant des compétences en algorithmique fondamentale, en structures de données abstraites, en programmation impérative / objet (C, C++, Java, VB, mobile, Web, …), en conception de logiciel seront particulièrement appréciées et plus généralement dans l’un des champs disciplinaires couverts par le programme national du BUT Informatique.

Le Bachelor Universitaire de Technologie Informatique et la licence générale MIAGE : https://iutparisseine.u-paris.fr/informatique/

Contacts :

Recherche (équipe SIP, LIPADE) :

– Laurent Wendling (responsable équipe),

– Florence Cloppet

Enseignements (IUT) :

– Jérôme Fessy (directeur du département Informatique de l’IUT Paris Rives de Seine)

Profil du candidat :
na

Formation et compétences requises :
na

Adresse d’emploi :
Université Paris Cité
85 boulevard Saint-Germain, 06e arr.
75006 Paris