Présentation Générale

 



           
Huitième édition du Symposium MaDICS (les inscriptions sont ouvertes !)

Ce rendez-vous annuel rassemble la communauté MaDICS afin de mettre en lumière les avancées récentes en sciences des données, à travers un programme scientifique riche comprenant des conférences invitées (keynotes), des ateliers thématiques, des tables rondes et des sessions de posters.
Ces temps forts favorisent des échanges scientifiques à la fois stimulants et conviviaux.

Une Session Poster sera spécialement consacrée aux jeunes chercheuses et jeunes chercheurs souhaitant présenter leurs travaux en analyse et gestion de données et dans les domaines interdisciplinaires autour de la Science des Données. Cette session sera également l’occasion d’échanger avec des collègues académiques et des acteurs industriels sur les thématiques de recherche présentées.

Dates importantes :

  • Soumission de posters : au plus tard le 23 mars 2026 2 avril 2026
  • Retour : 9 avril 2026
  • Date limite d’inscription : 30 avril 2026
  • Symposium : les 2 et 3 juin 2026 à Avignon

Nous vous invitons d’ores et déjà à réserver ces dates dans votre agenda et à vous inscrire !
Inscrivez-vous ici

Pour en savoir plus…

MaDICS est un Groupement de Recherche (GDR) du CNRS créé en 2015. Il propose un écosystème pour promouvoir et animer des activités de recherche interdisciplinaires en Sciences des Données. Il est un forum d’échanges et d’accompagnement pour les acteurs scientifiques et non-scientifiques (industriels, médiatiques, culturels,…) confrontés aux problèmes du Big Data et des Sciences des données.
Pour en savoir plus…


Les activités de MaDICS sont structurées à travers des Actions et Ateliers. Les Actions rassemblent les acteurs d’une thématique précise pendant une durée limitée (entre deux et quatre ans). La création d’une Action est précédée par un ou plusieurs Ateliers qui permettent de consolider les thématiques et les objectifs de l’action à venir.


Le site de MaDICS propose plusieurs outils de support et de communication ouverts à la communauté concernée par les Sciences des Données:

  • Manifestations MaDICS : Le GDR MaDICS labellise des Manifestations comme des conférences, workshops ou écoles d’été. Toute demande de labellisation est évaluée par le Comité de Direction du GDR. Une labellisation rend possible un soutien financier pour les jeunes chercheuses et chercheurs. Une labellisation peut aussi être accompagnée d’une demande de soutien financier pour des missions d’intervenants ou de participants à la manifestation.
    Pour en savoir plus…
  • Réseaux MaDICS : pour mieux cibler les activités d’animation de la recherche liées à la formation et à l’innovation, le GDR MaDICS a mis en place un Réseau Formation destiné à divers publics (jeunes chercheurs, formation continue,…), un Réseau Innovation pour faciliter et intensifier la diffusion des recherches en Big Data, Sciences des Données aux acteurs industriels et un Club de Partenaires qui soutiennent et participent aux activités du GDR.
    Pour en savoir plus…
  • Espace des Doctorants : Les doctorants et les jeunes chercheurs représentent un moteur essentiel de la recherche et le GDR propose des aides à la mobilité et pour la participation à des manifestations MaDICS.
    Pour en savoir plus…
  • Outils de communication : Le site MaDICS permet de diffuser des informations diverses (évènements, offres d’emplois, proposition de thèses, …) liées aux thématiques de recherche du GDR. Ces informations sont envoyées à tous les abonnés de la liste de diffusion MaDICS et publiés dans un Calendrier public (évènements) et une page d’offres d’emplois.

Adhésion au GDR MaDICS : L’adhésion au GDR MaDICS est gratuite pour les membres des laboratoires ou des établissements de recherche publics. Les autres personnes peuvent adhérer au nom de l’entreprise ou à titre individuel en payant une cotisation annuelle.
Pour en savoir plus…


Manifestations à venir

Journées Ecoles Conférences et Séminaires

Actions, Ateliers et Groupes de Travail :

CODA DAE DatAstro DSChem EXMIA GINO GRASP RECAST SaD-2HN SIMDAC SimpleText TIDS  


Mar
1
Tue
2022
Ph.D. POSITION (september 2022) — Université d’Orléans, France
Mar 1 – Mar 2 all-day

Offre en lien avec l’Action/le Réseau : DOING/– — –

Laboratoire/Entreprise : LIFO (Laboratoire d’Informatique Fondamentale d’
Durée : 3 ans
Contact : mirian@univ-orleans.fr
Date limite de publication : 2022-03-01

Contexte :
Ph.D. position financed by a 3-year French doctoral contract (approximately 1700 € gross monthly for a research activity alone).

This thesis is proposed in the context of the DOING action of the GDR-MADICS.

One goal of our action is to propose a system for querying, updating and maintaining databases (particularly graph databases). This system preserves the coherence with respect to a set of constraints and proposes means of interrogation and maintenance which include analysis methods.

Supervisors: Mírian Halfeld Ferrari Alves and Jacques Chabin

Theme: Databases (constraints, updates, graph database)

Sujet :
The proposed research work should address the maintenance and evolution of databases with incomplete information, and in particular, graph databases. The objective would be to consider constraints on property graphs (or attribute graphs), which include not only
integrity constraints (dependencies on values), but also constraints related to the topology of the graph).

The initial idea is to adapt and extend the update policies proposed in our previous work to the context of property graphs. The work aims at establishing validation and maintenance procedures to support an intelligent query system that would encompass data analysis.

Profil du candidat :
The candidate should have a master’s degree, or equivalent, in computer science.

Formation et compétences requises :

Good skills in database theory, logic, and programming. A good English level is also required.

French is not mandatory for candidates with a very good level of English and willing to learn French for daily life in France.

Adresse d’emploi :
The research work is conducted at the Laboratoire d’Informatique Fondamentale d’Orléans (LIFO), in France. Students should be physically present (i.e., the Ph.D. is not achievable by remote work).

To apply: send your applications to
(1) mirian@univ-orleans.fr and
(2) jacques.chabin@univ-orleans.fr
with a detailed curriculum vitae, your transcripts (if possible with your ranking), and two references.

The application procedure follows steps defined by our Doctoral School.
We set up selection cycles (with interview periods) as the first step.

We plan the first round of interviews at about 28 MARCH (applications needed before 25 MARS).

Document attaché : 202202011121_ENG-annonceBOURSEthese-2022.pdf

Mar
12
Sat
2022
PhD in Computational Social Sciences
Mar 12 – Mar 13 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : médialab, Sciences Po
Durée : 3 ans
Contact : pedro.ramaciottimorales@sciencespo.fr
Date limite de publication : 2022-03-12

Contexte :
The médialab at Sciences Po is hiring a doctoral researcher to work on the impact of artificial intelligence on socio-political and media dynamics for project “AI-Political Machines”

Sujet :
This position is part of the project AIPM (AI-Political Machines), funded by the McCourt Institute, devoted to conducting research tackling the challenges of the Internet, Artificial Intelligence, and their impact in society. The goal of AIPM is to improve the understanding of how AI systems perceive large social, political, and informational online systems, and the implications are for algorithmic mediation and the impact on social phenomena. Most AI systems mediating digital ecosystem (generating friend and content recommendations, filtering content, and assisting online searches) are trained using digital traces: networks of friends in social platforms (social graphs), content consumption (clicks, views, shares, retweets, etc.), in addition to text and images, to name a few. The goal of the project is to improve the understanding of what these systems are implicitly inferring about users for producing outputs such as recommendations. Are AI systems capable of inadvertently learning political stances of users when computing recommendations? What are the effects of algorithms mediating digital space in opinions and polarization, or agenda setting dynamics? How to leverage knowledge about machine perception of large social systems in designing better AI systems?

Profil du candidat :
The hired doctoral researcher must be able to conduct data analyses of social and media platform data and conduct experiments involving training and deploying machine learning and deep learning algorithms. In particular, the project involves network modelization, and the use of Graph Neural Network and other Recommender System algorithms and methods. The candidate must also have a real interest in learning social sciences and developing team work.
We encourage students with a natural sciences and technology background (e.g., engineering, computer science and mathematics) interested in becoming proficient in social sciences to apply for the position. Applicants with a background in social sciences (e.g., sociology, political science) and strong computational and modelling skills are also encouraged to apply.

Formation et compétences requises :
Experience with ML in Python and data analysis. Interest in expanding research interest towards the frontier between computer sciences and social sciences.

Adresse d’emploi :
1 place St Thomas d’Aquin, Paris, France

Document attaché : 202202170849_Fiche de poste doctorant McCourt AIPM.pdf

PhD in Computer Sciences / Computational Social Sciences
Mar 12 – Mar 13 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LPI/CRI-Paris, Université Paris Cité
Durée : 3 ans
Contact : pedro.ramaciottimorales@learningplanetinstitute.org
Date limite de publication : 2022-03-12

Contexte :
The Learning Planet Institute (LPI) is an interdisciplinary research unit of Université Paris Cité, developing diverse projects in themes ranging from systems biology to network sciences and complex systems. In the heart of Paris, the LPI brings together social scientists, biologists, designers, computer scientists, mathematicians and physicists among other disciplines, to develop research seeking high societal impact.

Sujet :
This position is part of an initiative to investigate the challenges wrought on democracies by the Internet and Artificial Intelligence, and to improve the understanding of the impact they have in society. The goal of the initiative is to improve the understanding and interpretability of AI systems that mediate social public life in social networks, media platforms, and online news outlets. How do Recommender Systems perceive and model the digital landscape of users and contents to recommend us friends and information? What is the relation between algorithmic recommendations mediating the activity in large internet platforms and the social phenomena such as echo chambers and polarization? This initiative relies on mathematical modeling, political science survey data, and computational experiments with Recommender Systems to develop actionable theories of machine social cognition and tool kits to analyze models learned and leveraged by AI architectures.

Profil du candidat :
The hired doctoral researcher will conduct data analyses of social and media platform data and theoretical modelization work. It is also expected that the doctoral researcher will conduct experiments, training models, and develop software tools to further the understanding of AI systems and their social cognition.

We encourage students with a background in natural sciences and technology (e.g., engineering, computer science, mathematics, physics) to apply for the position. Applicants with different backgrounds and strong modeling and computing skills are also encouraged to apply.

Formation et compétences requises :
Experience with Machine Learning in Python.
Interest in learning big data technologies.
Interest in doing research in AI interpretability.
Experience/interest in working in research in mathematical modeling (geometrical modeling of learning space for Deep Learning).
Interest in working with interdisciplinary teams in a public policy-inspired environment.

Adresse d’emploi :
CRI-Paris
8 bis Rue Charles V, 75004 Paris

Document attaché : 202202170855_Fiche de poste doctoral student LPI.pdf

Mar
14
Mon
2022
Approches de Traitement Automatique du Langage Naturel dans le domaine musical
Mar 14 – Mar 15 all-day

Offre en lien avec l’Action/le Réseau : Musiscale/– — –

Laboratoire/Entreprise : CRIStAL, Inria, Université de Lille
Durée : 3 ans
Contact : louis.bigo@univ-lille.fr
Date limite de publication : 2022-03-14

Contexte :
Depuis une dizaine d’années, les réseaux de neurones profonds font l’objet de nombreuses recherches dans le domaine du traitement automatique du langage naturel (Natural Language Processing). Ces recherches ont de multiples applications allant de l’analyse de corpus à la génération automatique de contenu.

La nature temporelle de la musique encourage et facilite sa représentation sous la forme de séquences d’éléments à différentes échelles, généralement des accords ou des notes, comparables à des séquences de mots. Cette séquentialité, ainsi que l’assimilation courante de la musique à une sorte de langage, ont motivé l’utilisation d’outils originalement conçus pour des tâches de NLP pour le traitement automatique de données musicales (Music Information Retrieval) pour des tâches variées incluant l’analyse et la génération automatique de musique.

Sujet :
L’objectif central de cette thèse est d’évaluer l’adaptabilité, la performance et la pertinence de techniques de NLP lorsqu’elles sont appliquées sur des données musicales. On se concentrera en particulier sur l’application en musique de trois principes essentiels du NLP :

* le principe d’attention mutuelle (self-attention)
* la segmentation (tokenization)
* l’apprentissage par transfert (transfert learning)

Ces principes seront étudiés à travers l’entraînement et l’évaluation de modèles musicaux inspirés par des modèles majeurs de NLP incluant l’auto-encodeur BERT ou le modèle auto-regressif GPT. Une réflexion sera menée sur les limites de l’application de modèles de langage naturel sur des données musicales, d’un point de vue technique comme d’un point de vue épistémologique, et sur les perspectives de modèles originaux spécifiquement adaptés à la modélisation de données musicales.

Plus de détails sur la page : http://www.algomus.fr/jobs/phd-nlp-en/

Profil du candidat :
Fort intérêt pour l’apprentissage automatique, le traitement automatique du langage naturel, et la musique.

Formation et compétences requises :
* Master d’informatique ou équivalent, apprentissage automatique, traitement automatique du langage naturel
* Connaissances et pratique musicales souhaitées.

Adresse d’emploi :
CRIStAL, Inria, Université de Lille, Villeneuve d’Ascq

Decentralized efficient AutoML Federated Learning for heterogeneous embedded devices
Mar 14 – Mar 15 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Orange Lab / UCA-Inria-CNRS MAASAI Team
Durée : 36 months
Contact : michel.riveill@univ-cotedazur.fr
Date limite de publication : 2022-03-14

Contexte :
TThe goal of the thesis is to perform research on decentralized and efficient federated AutoML learning for heterogeneous embedded devices.

The training of AI models for service delivery is today facing a conceptual transformation, by shifting the learning of models close to the data, embedded on users’ devices. These devices have limited resources and must remain fully operational during the learning phase. In addition, users today generate sensitive data and new collaborative algorithms for learning need to be developed and optimized for different embedded devices, ranging from smartphones to IoT.

Nowadays, to build an AI model it is necessary to collect data on a central server (cloud). The problems of this method are related to privacy, control of data usage and computational resources. Federated learning (FL) [1,2] is a new AI approach with collaborative training that resolves these problems. Models are trained on local users’ data and its parameters only are exchanged with other users to build a global model. The challenges of Federated Learning are (a) obtaining efficient and robust decentralized FL models with heterogeneous data (b) optimizing resources for actual operational deployment and (c) customizing services and optimizing model based on available resources for groups of users, because a single global model may be less explainable, accurate and appropriate when compared to a personalized model.

We will deploy deep neural networks on users’ devices because they have high classification/prediction accuracy in various tasks. However, their training requires a significant effort in terms of finding optimal hyperparameters, which limits their use at devices with constrained resources. Emerging areas address the problem of automatic neural network generation [3] and automatic search for appropriate architectures (Neural Architecture Search-NAS), features required for real-world deployments. FL NAS [4] aims at optimizing the architecture of neural network models in the FL environment. Many questions in this domain remain open. For example, there are no approaches developed for FL with clients having the same sample space and a different feature space.

Sujet :
The objective of the thesis is to (a) design a federated learning framework to automatically generate low-power neural networks in compliance with GDPR [5] with homogeneous (b) and heterogeneous devices under device constraints (availability, resources, states) and to study it in a fully decentralized Peer-to-Peer federated learning setup.

[1] J. Konecny, H. B. McMahan, F. X. Yu, P. Richtarik, A. T. Suresh and D. Bacon, “Federated Learning: Strategies for Improving Communication Efficiency,” in arXiv, 2017, pp. 1-10.

[2] K. Bonawitz, H. Eichner, W. Grieskamp, D. Huba, A. Ingerman, V. Ivanov, Ch. M. Kiddon, J. Konečný, S. Mazzocchi, B. McMahan, T. Van Overveldt, D. Petrou, D. Ramage and J. Roselander, “Towards Federated Learning at Scale: System Design,” SysML 2019, https://arxiv.org/abs/1902.01046, 2019.

[3] A. Wong, M. J. Shafiee, B. Chwyl and F. Li, “FermiNets: Learning generative machines to generate efficient neural networks via generative synthesis,” 1809.05989.pdf (arxiv.org), NIPS, 2018.

[4] H. Zhu, H. Zhang and Y. Jin, “From Federated Learning to Federated Neural Architecture Search,” https://arxiv.org/pdf/2009.05868.pdf, 2020.

[5] Regulation (EU) 2016/679 of the European Parliament and of the Council (article 30), https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:32016R0679&from=EN#d1e3265-1-1, Archived from the original on 28 June 2017.

Profil du candidat :
You have a Masters degree in Data Science or Computer Science and you are a curious person that likes to learn and seek for solutions. You are highly motivated to do your thesis in the emerging field of distributed algorithms for embedded devices. You have skills in machine learning, optimization and statistics (essential) as well as good programming skills and knowledge in the field of embedded devices (desirable). Interest in the field of Signal Processing is a plus.

Furthermore, autonomy and open-mindedness are the qualities particularly appreciated for research work. The dynamism, the strength of proposal and the capacities of communication are also required for this position. English will be used throughout the thesis (reading state of the art, writing articles and presenting results at international conferences) and excellent level of English is therefore required.

Formation et compétences requises :
Master or Ecole d’ingénieur.

Adresse d’emploi :
Orange Lab Sophia Antipolis.

Contact :
– Tamara.TOSIC@orange.com,
– Michel.RIVEILL@univ-cotedazur.fr

Mar
25
Fri
2022
Learning and analyzing spatio-temporal objects from high resolution satellite image time series
Mar 25 – Mar 26 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRISA
Durée : 3 ans
Contact : charlotte.pelletier@univ-ubs.fr
Date limite de publication : 2022-03-25

Contexte :
On March 7, 2017, the European Space Agency (ESA) successfully put its latest high-resolution satellite Sentinel-2B into orbit. The two Sentinel-2 satellites are now capturing images of all emerged surfaces every 2 to 5 days at high spatial and spectral resolutions, which makes it possible to monitor the evolution of land surfaces on a global scale. Satellite image
time series (SITS) extracted from Sentinel-2 constellations are useful for many applications such as land cover mapping [1], crop type mapping, soil moisture estimation, burnt area detection, and many more. Similarly, high resolution satellite image time series, such as the one provided by Pl ́eiades, are relevant for urban area analysis, disaster risk management,
and rapid mapping.

Due to their volume and complexity, the analysis of these spatio-spectro-temporal datacubes requires automatic tools. Recent advances have been marked by the use of deep learning techniques to make the most of the temporal structure of SITS. It includes temporal 1D convolutions [2], recurrent networks [3], or attention-based architectures [4]. There were also several attempts to jointly exploit the spatial and temporal dimensions of SITS data by the means of deep learning [5, 6, 7]. Although these approaches have proven their efficiency, they suffer from two main issues: (i) they require a vast amount of high-quality labelled data, and (ii) they ignore previous trends in remote sensing, especially contributions from
the object-based image analysis (OBIA) [8]. Ensuring a convergence between these two distinct paradigms would allow embedding more structural and semantic information in the process. Preliminary attempts to couple the two paradigms need to be pursued [9].

Sujet :
Since only a few attempts exist to jointly use temporal relationships between satellite images and their intrinsic spatial structure in deep learning, the Ph.D. aims at developing novel deep learning architectures for the generation of spatio-temporal objects with no or limited supervision. It will be composed of two main objectives: (i) developing new techniques to
structure raw SITS data into spatio-temporal objects, and (ii) analysing spatio-temporal objects.

First, we will consider the task of extracting objects from SITS as either a temporal sequence of 2D objects or directly 3D (i.e., spatio-temporal) objects with no or a few supervision. For this task, we will propose new unsupervised deep learning strategies that take inspiration from self-supervised strategies [10] and go much further than the segmentation networks introduced recently in the literature, e.g. based on auto-encoders such as W-Net [11], or having new loss formulation [12]. We will also consider the case where a weak reference is available as we know that prior knowledge can be used to guide the extraction of objects. In our setting, this prior knowledge can come from sparse, single-date, and low-resolution
reference data (e.g., Corine Land Cover) or from the application of a ruleset, applied to each image of the SITS, which enriches the objects with some semantics. Compared to computer vision algorithms used for instance segmentation such as Mask-RCNN, the novelty will be to take into account both spatial and temporal structures of SITS data, to deal with the lack of quality labelled reference data at the object level, and to provide a full partition of the input data.

Second, we will develop new methods to analyze the produced spatio-temporal objects. We will still consider the deep learning framework as a methodology to perform object-based time series analysis. To do so, we will represent objects as nodes in a spatio-temporal graph, such as Graph CNNs [13] and their formulation in the spatio-temporal domain [14]. This representation will be then used for classical applications such as land cover mapping. We will also propose and evaluate similarity measures between nodes in the graph representation to cluster the data.

Profil du candidat :
We are looking for a candidate with strong data analysis, machine learning, and image processing skills, who is familiar with deep learning techniques.

Formation et compétences requises :
The candidate should have excellent programming skills in at least one language (Python, C/C++, etc.). Knowledge of time series analysis and remote sensing techniques will be appreciated. Good communication skills (at least in English) are required.

Adresse d’emploi :
Université Bretagne Sud
Laboratoire IRISA
Campus de Tohannic
56 000 Vannes

Document attaché : 202112171454__CNES__Ph_D__offer.pdf

Mar
31
Thu
2022
Apprentissage fédéré et vision intelligente pour le Edge Computing
Mar 31 – Apr 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIRIS, équipe Imagine (Lyon) / LabHC, équipe Image
Durée : 3 ans
Contact : stefan.duffner@insa-lyon.fr
Date limite de publication : 2022-03-31

Contexte :
Actuellement l’intelligence artificielle (IA) et les réseaux de neurones font l’objet de nombreux développements tant dans les grands groupes industriels (Google, Intel, Microsoft) que dans les laboratoires.
De nombreuses voies sont explorées, principalement au niveau serveur ou large infrastructure ce qui permet de gérer des réseaux neuronaux à très grand nombres de couches. Cependant, de nombreuses recherches ont
aussi pour vocation à délocaliser une partie des calculs au sein même du capteur. C’est le “Edge Computing” qui décrit le fait de rapprocher le traitement des données auprès du système les générant. Par essence, cela
s’oppose au “Cloud Computing” où le traitement est centralisé et réalisé dans un système central et distant (dans le cloud) imposant des communications bidirectionnelles coûteuses en temps et en traitement. Un des inconvénients majeurs du “cloud-computing” est la potentielle violation de la vie privée (privacy) puisque les données sont intégralement transférées sans le contrôle de l’individu. De nouvelles lois, comme [GDPR16], sont apparues pour limiter très fortement l’utilisation de telles techniques. L’approche “Edge” permet, en amenant une partie du calcul au plus près de la source des données, de répondre à cet inconvénient en ne
fournissant au cloud que des informations sur la donnée capturée. Cette approche permet également de tendre vers un traitement de données temps réel en réduisant les problèmes de bande passante et de latence, ce qui se traduit par de meilleures performances et une réduction des coûts d’exploitation des applications à forte intensité de données. Cela est d’autant plus prégnant lorsque les données d’entrée sont des images. Il est donc facile de comprendre que dans un contexte alliant intelligence artificielle donc calculs lourds et traitement de données “images”, des solutions basées sur la distribution des traitement sont les plus ad-hoc. Cette approche que l’on peut nommer Edge-AI va permettre d’exécuter des algorithmes de traitement à base d’intelligence artificielle au cœur même des appareils qui font partie du réseau “Edge Computing”, en ayant recours à une connexion internet de manière raisonnable.

Sujet :
L’objectif de cette thèse est de proposer des solutions novatrices aux problématiques de réseaux de capteurs d’images intelligents (smart vision sensors), notamment l’’intégration d’une intelligence collective au sein du
réseau à partir de données élémentaires pré-traitées sur les nœuds de calcul.
Toutes les méthodes d’IA pour l’image les plus éprouvées à ce jour sont basées sur des CNN (Convolutional Neural Network). Une étape principale de la thèse est de concevoir des architectures de CNN déployables sur
des réseaux de capteurs ainsi que de proposer de nouvelles méthodes d’apprentissage distribué de CNN Cela implique :
• une mutualisation éventuelle d’une partie du CNN entre les différents nœuds en assurant la vie privée et en optimisant les ressources (calcul, mémoire, communications réseau, donc la consommation d’énergie): Cela permettrait également de “personnaliser” les traitements locaux en fonction des services.
• une construction d’un modèle CNN global performant avec des données de capteurs locaux sans transmission d’informations sensibles et en limitant le volume et la fréquence des échanges.
Ces algorithmes et modèles s’appuieront sur des techniques récentes en IA en proposant de nouvellescontributions scientifiques et techniques dans le contexte du Edge Computing. De plus, les approches innovantes d’apprentissage automatique seront considérées pour permettre la construction efficace du modèle: apprentissage de représentation, apprentissage semi supervisé et continu.
L’objectif de ces recherches plus fondamentaux sur l’IA et le “Edge Computing” est d’appliquer ses résultats à un ou plusieurs cas d’études réels dans le domaine de vision par ordinateur (par exemple, la détection et le suivi d’objets ou de personnes ou la reconnaissance de gestes dans un flux vidéo) et éventuellement de créer un prototype sur carte FPGA.

Profil du candidat :
Nous cherchons un candidat avec des bonnes compétences en apprentissage automatique et vision par ordinateur (voir ci-dessous).

Formation et compétences requises :
Formation requise : nn diplôme de Master Recherche ou diplôme d’ingénieur en informatique.

Compétences requises :
– sciences de données et apprentissage automatique, mathématiques appliquées
– vision par ordinateur
– une bonne maîtrise de la programmation python
– bon niveau en anglais
– des notions en électronique, systèmes embarqués et FPGA sont un plus

Adresse d’emploi :
LIRIS, INSA Lyon, 7 Avenue Jean-Capelle, 69621 Villeurbanne

Explication et les circuits pour l’évaluation de requêtes et le raisonnement logique
Mar 31 – Apr 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : INRIA Lille
Durée : 3 ans
Contact : pierre.bourhis@univ-lille.fr
Date limite de publication : 2022-03-31

Contexte :
Une offre de doctorant co-encadrée, par Antoine Amarilli et Pierre Bourhis dans le cadre d’une offre de thèse à Inria Lille, sur l’explication et les
circuits pour l’évaluation de requêtes et le raisonnement logique.

Sujet :
L’objectif de la thèse est d’étudier de façon fine les problèmes liés à
l’explication des raisonnements logiques faits dans plusieurs cadres :
l’explication d’interrogation de bases de données par des requêtes,
l’inférence de données par des règles logiques et l’exécution de
programmes définis par des règles logiques comme les data-centric
workflows.

Profil du candidat :
Le lien de candidature et plus d’informations sont disponibles sur le
portail Inria https://jobs.inria.fr/public/classic/fr/offres/2022-04484
et la date limite pour candidater est le 8 avril.

Formation et compétences requises :
Le candidate devra connaitre une formation en information théorique proche des bases de données ou de la logique ou de la compilation des connaissances

Adresse d’emploi :
pierre.bourhis@inria.fr

Apr
1
Fri
2022
Fully Funded PhD – ICube, Strasbourg, France: Domain invariant interpretable representation learning
Apr 1 – Apr 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ICube, University of Strasbourg
Durée : 3 years
Contact : lampert@unistra.fr
Date limite de publication : 2022-04-01

Contexte :
A fully funded PhD position is open at the University of Strasbourg (ICube). The position will be jointly funded by the French National Centre for Space Studies (CNES) and the Chair SDIA. The candidate will join the SDC research team under the supervision of Dr Thomas Lampert, the Chair of Data Science and Artificial Intelligence, and join his international team to develop novel deep learning approaches to domain invariant representation learning for satellite image time-series (SITS).

Sujet :
It is difficult and expensive to annotate the huge amount of data generated by satellites, but this is needed for the success of deep learning algorithms. To overcome this, transfer learning and domain adaptation techniques will be developed to exploit unlabelled data. These techniques allow an algorithm’s performance to be improved with minimal (or potentially no) additional annotation, lowering the cost of deployment.

The goal of the project is to develop models for learning domain invariant representations using deep learning for the analysis of satellite image time-series.

Detailed Description: https://drive.google.com/file/d/1W92enhzhKLJ0_IjD4pSSMYHw-y6SxQdj/view?usp=sharing

Profil du candidat :
The successful candidate will have (or will soon obtain) an MSc in Computer Science or related subject. Experience with deep learning is required and experience with time series and/or remote sensing is a bonus.

Formation et compétences requises :
MSc in Computer Science or related subject
deep learning

Adresse d’emploi :
ICube UMR 7357 – Laboratoire des sciences de l’ingénieur, de l’informatique et de l’imagerie
300 bd Sébastien Brant – CS 10413 – F-67412 Illkirch Cedex

Apr
8
Fri
2022
Point cloud based large-scale place recognition (IGN, Paris area)
Apr 8 – Apr 9 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LaSTIG
Durée : 36 mois
Contact : valerie.gouet@ign.fr
Date limite de publication : 2022-04-08

Contexte :
Thesis proposal: Point cloud based large-scale place recognition – Application to the prevention against fake news

*** Subject of the thesis

The thesis project focuses on 3D point cloud based large-scale place recognition, with the application of geolocation of 3D image data. Without any extra information of the initial position, geolocalazing image content relies on the indexing and retrieval of content similarities in a geolocalized reference. This thesis proposes to study this type of approach by exploiting 3D maps based on acquisition campaigns (in particular LiDAR) that are becoming mainstream thanks to high quality geometry reconstruction which makes them attractive, but also complex to handle given their volume and diversity. Please consult the full text in PDF for the description of the subject thesis.

*** Context

The fields of application of place recognition from images are numerous, we will deal here with the case of the geolocation of amateur video sequences as a certification tool for the prevention against fake news. Massively spread on social networks and on the web, amateur videos relaying information or an event are now very important, with among them content that is fake news, i.e. taken outside of its original context, to express bad or false information. To fight against this form of misinformation, several media, such as the French public television channel “France TV”, have set up a fact checking unit of images and videos which analyzes, verifies and certifies these streams. This complex work is done by hand and would benefit from being automated by using artificial intelligence tools. The verification of geolocation was recognized as essential to best explain what is happening. It is in this collaborative context between IGN and France TV that we focus on this geolocation criterion with the desire to exploit the best georeferencing repositories of today to offer automatic large-scale geolocation solutions, which can, among other things, contribute to the fact checking of visual information.

Sujet :
Full description in English: https://www.umr-lastig.fr/vgouet/News/annonce_these_PlaceReco3D_2022-EN.pdf

Full description in French: https://www.umr-lastig.fr/vgouet/News/annonce_these_PlaceReco3D_2022-FR.pdf

Profil du candidat :
*** Candidate profile

Bac+5 in computer science, applied mathematics or geomatics (master or engineering school).

Please note the only students from the European Union, the United Kingdom or Switzerland are eligible for this thesis project.

*** How to apply

Before March 28, 2022, please send both contacts in a single PDF file the following documents:
– A detailed CV
– A topic-focused cover letter
– Grades and ranks over the last 3 years of study
– The contact details of 2 referents who can recommend you

*** Contacts

– Laurent Caraffa – Laurent.Caraffa@ign.fr, Researcher at LaSTIG (thesis supervisor), IGN, Gustave Eiffel University
– Valérie Gouet-Brunet – Valerie.Gouet@ign.fr, Research director at LaSTIG (director of the thesis), IGN, Gustave Eiffel University

Formation et compétences requises :
A good background in machine learning is required, and a knowledge on 3D computer vision or image indexing will be appreciated. The successful candidate must have good programming skills (Python, C/C++). Although fluency in French is not required, fluency in English is necessary. Curiosity, open-mindedness, creativity, perseverance and the ability to work in a team are also key personal skills in demand.

Adresse d’emploi :
*** Organization

* Start: last quarter of 2022

* Place: the thesis will be carried out in Paris area at the LaSTIG laboratory, located in Saint-Mandé (73 avenue de Paris, Saint-Mandé metro, line 1) in the premises of the IGN. The doctoral student will be attached to the MSTIC Doctoral School (ED 532).

The French mapping agency IGN (National Institute for Geographic and Forest Information) is a public administrative establishment attached to the French Ministry of Ecological Transition; it is the national reference operator for mapping the French territory. The LaSTIG Laboratory in Sciences and Technologies of Geographic Information for the smart city and sustainable territories, is a joint research unit attached to the Gustave Eiffel University, the IGN and the School of Engineering of the city of Paris (EIVP). It is a unique research structure in France and even in Europe, bringing together around 80 researchers, who cover the entire life cycle of geographic or spatial data, from its acquisition to its visualization, including its modeling, integration and analysis; among them about thirty researchers work in image analysis, computer vision, machine learning, photogrammetry and remote sensing. LaSTIG researchers can be involved in the teaching activities of the IGN engineering school, the ENSG (Ecole Nationale des Sciences Géographiques), which offers access to undergraduate and graduate students with excellent quality in fields related to geographic information sciences: geodesy, photogrammetry, computer vision, remote sensing, spatial analysis, cartography, etc.

Document attaché : 202202212218_annonce_these_PlaceReco3D_2022-EN.pdf

Apr
10
Sun
2022
Dynamic Human-Agent Interactions adapted to users’ profiles
Apr 10 – Apr 11 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : L3i / Easychain
Durée : 36 mois
Contact : mickael.coustaty@univ-lr.fr
Date limite de publication : 2022-04-10

Contexte :
The pandemic that we have just experienced has accelerated the dematerialisation of our exchanges and intensified the need to provide quick and relevant answers at any time. This digital shift practically brings new challenges. Users would maintain the same level of satisfaction in their practices and companies by offering efficient online services. Whether in stores or on the Web, consumers’ expectations are increasing: they want to be able to do everything quickly, easily and efficiently. Therefore, companies should be able to respond to their customers in person (in their establishment) rather than online using their digital platforms. Easychain, a young company that produces software and services dedicated to real estate brokers, aims to anticipate the requirements of its customers and future owners. This problem leads to a strong need to provide answers through chatbots, also known
as conversational agents, in order to satisfy the customers.

EasyChain is a young company based in Niort (France) that publishes tools using Artificial Intelligence. Its first customers are real estate credit brokers, the company addresses the entire real estate sphere, from the buyer to the seller, including notaries, real estate agents, banks and bailiffs. With the arrival of the millenniums on the labour market, the professions connected with real estate will undergo major changes over the next few years: digitalisation and artificial intelligence are the main challenges. In order to meet these future challenges, the company has developed the following tools:
• a tool for recognising and classifying standard and non-standard documents, with extraction of important information, feeding, among other things, a business CRM;
• a mobile application that enables the transfer of spoken and written information, encrypted from end to end. It is a “WhatsApp-like” application extended and dedicated to the real estate credit sphere.

These tools, which are unique on the market, are the very beginning of the automation of the entire credit processing chain. In order to go further in this logic, Easychain aims to complete them with voice chatbots, robots that analyse applications, qualify their eligibility, and process them as a whole. The team is currently composed of AI researchers, mathematicians, software developers, digital specialists,
and business experts.

In order to work on the development of these Chatbot solutions, Easychain would collaborate with the L3i laboratory at La Rochelle University. Created in 1993, the L3i (informatique, image, interaction
computer Science, image, interaction) laboratory is the research laboratory for digital sciences at La Rochelle University. It has about 100 members working in the fields of computer Science, image processing and Interaction. The research fields at L3i concern the interactive and intelligent management of digital content. More specifically, the work carried out within the framework of this collaboration concerns the Images and Contents team. Its core business concerns low-level processing techniques of weakly structured contents (images, texts, videos, native and digitized digital documents, …), as well as the analysis, management and linking of data extracted from such contents (feature extraction, indexing, mining or information retrieval).

In order to improve the quality of its customer relations, Easychain would develop, in collaboration with L3i, a conversational agent. This agent, commonly called Chatbot, should allow:
• answering common questions: customer service is often involved to answer the same questions: problems to login, banking procedures, how to get a home loan, etc. A chatbot will answer these questions. Thus, the support team will have more time devoted to important issues;
• Written or spoken chat: it must be able to consider the customer’s messages either in text or voice and propose an appropriate answer;
• User profile analysis: it is also necessary, not only the emotions, the feelings but also the answer, the way of asking questions, the speech, etc. Based on all the information, the chatbot will be able to adapt its answers.

This chatbot will be integrated in all the tools and services developed by Easychain such as – WeasyFile — a tool for automatic recognition and reading of documents — or ConnectCrédit — a mobile application to ease exchanges between brokers and real estate agencies, etc.

Sujet :
Objectives:
In this particular context, the development of a conversational agent (chatbot) is a necessary response to facilitate communication, by voice or text, with any human being using interactive skills. Generally speaking, chatbots can be seen as computer programs that rely on Machine Learning and Artificial Intelligence (AI) methods to choose the best response based on previous interactions. In this thesis, we want to propose a multimodal conversational agent, able to answer in text or voice according to the modality chosen or entered by the customer. Moreover, this agent will have to be able to extract the domain of the conversation and to detect information about the customer’s feelings (emotion and sentiment analysis) in order to reduce the “robot” effect of existing agents. These objectives are directly linked to two major research areas: Natural Language Processing (NLP) and Natural Language Understanding (NLU). The languages studied by this chatbot will be primarily French and English.

The problem is to take advantage from knowledge and methods dedicated to linguistic analysis such as: morphological analysis, lexical and semantic knowledge, etc.) to achieve two objectives:
– The chatbot must perform a natural language conversation with customers comparable to an exchange between two humans. It is based on language models adapted to the processing of a customer’s file;
– The chatbot must be linked to a voice synthesiser to offer a voice dialogue option with the customer;
– The chatbot must be open domain, meaning that it must be able to adapt its conversation according to its domain;
– The chatbot must be able to analyse the customer’s emotions in real time to determine the best way to respond and dialogue with the customer according to his emotions.

Challenges:
The main challenges are:
– Interpretation of different customer demands: the method must be generic and not based on domain-specific rules;
– Examination of user behaviours: ability to identify and adapt to different customer behaviours, including the modality used to communicate
Brief state of the art and positioning
Several researches have been focused on the design of chatbots. The very first known chatbot was developed in 1966 [1]. It used a simple pattern matching to propose answers (only) to questions. The efforts have then continued on the modelling of a knowledge base used by chatbots such as ontologies, or semantic networks that link a set of hierarchically interconnected concepts [2, 3]. The purpose of using knowledge bases in a chatbot is to compute relations between these concepts, such as synonyms, hyponyms, etc. [3]. The interconnection between these concepts can be represented in a graph allowing the chatbot to search using particular reasoning rules. If the entry is not found in the knowledge base, a default answer is generated. In order to overcome the limits of knowledge bases in terms of coverage of various domains, several research works have therefore used language models in order to semantically analyse the queries (input sentences) with a decent accuracy [4,5].
Existing chatbots suffer from two limitations: 1) model capacity and 2) scarcity of generic data. With the recent success of large pre-trained language models [6-7], which are very effective at encoding semantics [8-9], both problems can be mitigated. The first work to be carried out in this thesis will focus on the use and adaptation of these pre-trained language models on very large databases. The goal consists in generating grammatically and semantically consistent responses rather than adding a domain learning scenario with a goal of classifying dialogue emotions. For example, if the caller says “I am really satisfied with your first article and I look forward the second one”; the chatbot should be able to detect this positive impression of the customer and to adapt in real-time the conversation according to this emotion.
Concerning the opinion analysis and considering the user’s feeling in the answers that the system should give, many works have been done in the literature. The analysis of feelings is a task of Natural Language Processing (NLP). NLP aims at extracting feelings and opinions from texts as presented in [10,11]. In addition, new sentiment analysis techniques are beginning to incorporate information from text and other modalities such as visual data [12,13]. This research topic falls within the field of affective computing and emotion recognition [12]. According to [14], affective computing and sentiment analysis are the keys to the development of artificial intelligence (AI). Moreover, they have great potential when applied to various domains or systems. The task of sentiment analysis can then be viewed as a text classification problem [15-17], as the process involves several operations that result in classifying whether a given text expresses a positive or negative sentiment.
However, although sentiment analysis may seem like an easy process, it actually requires the consideration of many factors not currently addressed by NLP researchers such as sarcasm and subjectivity detection [18,19]. Moreover, the lack of apparent structure (specific to books or newspapers) that can clearly be found in vocal exchanges with clients remains a major problem for the community [20,21].
The proposed method in this research work should define a natural language dialogue system independent of knowledge bases and/or complete models (closed world hypothesis) which are generally cumbersome and incomplete. For this purpose, we propose to study a solution that will rely on attention models [22] to detect the domain and identify its relevant terms. The chatbot will then have to decode the semantics of the terms using recent dynamic word embedding models, which have shown, in our recent work, good performances in several exercises such as information extraction [23] or named entity recognition and disambiguation [24,25]. The major novelty will then consist in developing new models able to integrate information related to the semantics of the content (word embedding, audio embedding [26]), to their context (attention model) and to the user’s feeling (sentiment analysis). The proposed system will then generate a response (text or audio) based on the semantic content, the domain and the user sentiment. The figure below describes a typical architecture of the expected chatbot.

Profil du candidat :
Anybody interested by reasearch in computer science

Formation et compétences requises :
Master degree in computer science (or equivalent)

Adresse d’emploi :

https://l3i.univ-larochelle.fr/spip.php?action=acceder_document&arg=1675&cle=18f8865a07a5837e135038516847ef81c846c59a&file=pdf%2Fcifre_phd_proposal_dynamic_human_agent_interactions_adapted_to_users_profiles_cle07da8a.pdf

Document attaché : 202202100910_cifre_phd_proposal_dynamic_human_agent_interactions_adapted_to_users_profiles_cle07da8a-1.pdf

Apr
15
Fri
2022
Applying Hybrid Evolutionary Machine Learning techniques on Environmental DNA data to predict biodiversity
Apr 15 – Apr 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LAMSADE
Durée : 3 years
Contact : sana.mrabet@dauphine.psl.eu
Date limite de publication : 2022-04-15

Contexte :
Evaluating the level of biodiversity in marine and terrestrial locations is currently a universal practice for estimating the impact of human activities and climate change on the ecosystems of these environments. An innovative and modern approach to perform this observation is the high-throughput sequencing of DNA taken from the environment (“environmental DNA)
Environmental DNA (eDNA) analysis consists mainly of the identification of species from the DNA they leave in their environment. Many studies show that the use of eDNA allows a good estimation of the different species (or taxa) present in different types of environments. eDNA analysis is based on classical molecular biology techniques (PCR, sequencing…). The identified taxa are assigned to ecological weights which are used to calculate the biotic indices (BI). These indices are used to determine the ecological quality of the site in question (generally classified in five categories from “very poor” to “very good”). However, these studies relied on reference sequence databases (Silva Greengenes LTP) for taxonomic assignment, in order to retrieve taxon-specific ecological weights and to calculate BI values. This phase may fail if some sequences in the environment to be analysed are incomplete or do not appear in the reference databases.
Recent works [1,2,5] has demonstrated that machine learning can be used to predict accurate values of biotic indices from eDNA metabarcoding, regardless of sequence affiliation. The idea is to generate a clustering model to group closely related sequences (high percentage of identity) belonging to a well-defined taxon. The approach then consists in using a clustering technique on the analysis data of the marine samples applicable even if the determined sequences are incomplete. These sequences are then affiliated automatically to the taxon of the central sequence of the cluster identified in a reference database. The validity of the model can be checked by searching for the exact affiliation of the cluster centres in reference databases.

Sujet :
The subject of this thesis has a double objective. The first objective is the implementation of conventional techniques for clustering eDNA data of a marine environment allowing to evaluate the BI of this environment. The generated models in this phase may be non-generalizable solutions and very dependent on the sequencing methods used in the analysed samples. Hence the second objective of the thesis which aims at the generalization of prediction models to data from other samples of the same marine environment using evolutionary methods. The idea is to develop a hybrid evolutionary algorithm that evolves clustering models as a function of sample parameters (i.e. sequencing markers) and clustering parameters (i.e. distance measurement indicators). The model scheme can be based on the “Genetic K-means algorithm” (GKA) of Krishna and Murty.
The first models are to be tested on marine samples studied by Cordier [1,2] and available online. Other samples will be studied after validation of the algorithm. The validation of the method and its application on other marine data may lead to a possible exchange with OFB (French Office of Biodiversity).

Profil du candidat :
Master’s degree in computer science or equivalent degree giving access to PhD studies.

Formation et compétences requises :
– Good knowledge in Machine Learning
– Good knowledge in Computer Science and Mathematics.
– Good programming skills, especially in Python programming.
– Some knowledge in Bio-informatic would be good but it is not mandatory.
– Good command of written and spoken English.

Adresse d’emploi :
LAMSADE CNRS UMR 7243, University of Paris Dauphine, France

Document attaché : 202203072123_PhD Application – Lamsade 2022.pdf

Gestion Collaborative et Contrôle Intelligent des Bâtiments Industriels
Apr 15 – Apr 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : IRIMAS de l’université de Haute Alsace
Durée : 3 ans
Contact : a.abouaissa@uha.fr
Date limite de publication : 2022-04-15

Contexte :
Dans le cadre d’un contrat doctoral, L’équipe RT de l’institut IRIMAS propose une thèse sur l’application de l’apprentissage collaboratif dans le contexte de la gestion des bâtiments industriels.

Sujet :
L’objectif de ce projet est de proposer et de valider un modèle d’aide à la décision, capable de prendre conscience de ce qui se passe au niveau de l’environnement du bâtiment et de prédire les cas futurs en fonction des besoins des usagers/opérateurs. Ce modèle basé sur l’apprentissage fédéré et les techniques d’optimisation hybrides permet d’assurer un pilotage énergétique optimal.

Profil du candidat :
Le candidat a obtenu un master 2 recherche en informatique ou équivalent. Il doit avoir une bonne connaissance dans les domaines suivants : recherche opérationnelle, techniques d’IA, l’apprentissage fédéré, science des données. Des connaissances en BIM et IoT serait un plus.
 Langage de programmation : Python et Java.
 Le candidat doit avoir un bon niveau en anglais.

Formation et compétences requises :
Dans le cadre du processus de recrutement du (de la) doctorant(e) mis en place par l’université de Haute Alsace, voici ci-dessous les documents à préparer :
· une lettre de motivation adressée au responsable du pôle de formation SE (Sciences Exactes)
· un curriculum vitae à jour (mettez l’accent sur vos projets de fin d’études et les éventuelles publications soumises/acceptées)
· une copie de la carte d’identité ou du passeport
· une copie de tous les diplômes déjà validés (Licence, master, ingénieur)
· tous les relevés de notes portant le tampon de l’établissement (obligatoire)
· un avis (lettre de recommandation) du responsable de stage de fin d’études (ou un enseignant/responsable de formation de votre établissement)
Les dossiers sont à envoyer le plus rapidement possible (15/04/2022 au plus tard).
Les candidats sélectionnés seront contactés par l’équipe encadrante avant le 22/04/2022.
Des auditions sont à prévoir vers le 16/05 et les finaux résultats seront communiqués le 25 mai par mail.

Adresse d’emploi :
Université de Haute Alsace
Equipe RT/IRIMAS
34 Rue de Grillenbreit
68008 Colmar cedex

Document attaché : 202204031353_PhD_Call_IRIMAS_UHA.pdf

Apr
20
Wed
2022
Méthodes tensorielles pour la compression et l’apprentissage des réseaux de neurones profonds et leu
Apr 20 – Apr 21 all-day

Offre en lien avec l’Action/le Réseau : HELP/– — –

Laboratoire/Entreprise : laboratoire d’informatique et systèmes (LIS) UMR
Durée : 36 mois
Contact : zniyed@univ-tln.fr
Date limite de publication : 2022-04-20

Contexte :
De nos jours, les progrès dans l’apprentissage automatique et surtout dans l’apprentissage profond permettent aux machines de détecter et de reconnaître les objets spécifiques mieux que les êtres humains dans certains domaines. L’apprentissage profond s’appuie généralement sur un volume énorme de données pour apprendre le modèle d’apprentissage. Plus les données sont volumineuses, plus le modèle fonctionne avec précision. Malgré le grand succès de l’apprentissage profond, il reste encore quelques défis à surmonter pour déployer des modèles profonds dans la vie réelle. Entre autres, le déploiement des modèles profonds sur des équipements embarqués ou mobiles ayant des ressources de calcul et de stockage limitées reste un défi majeur. En effet, les réseaux de neurones profonds (DNNs, pour Deep neural networks en anglais) nécessitent beaucoup de calcul et de mémoire, ce qui les rend difficiles à déployer sur des équipements embarqués avec des ressources de calcul limitées. Ces réseaux profonds sont caractérisés par des millions voire des milliards de paramètres et sont presque exclusivement entraînés en utilisant une ou plusieurs cartes graphique (GPU) très rapides et gourmandes en énergie.
Dans ce projet, nous proposons d’aborder la problématique de compression et d’apprentissage des DNNs, en utilisant les décompositions tensorielles. Les tenseurs ont rec cu une attention particulière dans ce sens en raison de leur capacité de représenter à la fois des données hétégorènes et volumineuses. Dans ce cas, les données peuvent être organisées selon un tableau à D dimensions, aussi appelé tenseur d’ordre D. L’utilisation des tenseurs présente plusieurs avantages par rapport aux matrices, comme l’unicité, c’est-à-dire la garantie d’identifiabilité des paramètres récupérés, ou encore la disponibilité d’outils puissants pour effectuer des décompositions de tenseurs.
De ce fait, les décompositions tensorielles sont des outils puissants de l’algèbre multilinéaire, qui sont utilisés dans une grande variété d’applications, notamment pour la compression et l’apprentissage des réseaux de neurones.

Sujet :
Compression des matrices de poids et des noyaux tensoriels:
Des études récentes montrent que les matrices de poids des DNNs sont souvent redondantes, et en restreignant leur rangs, il est possible de réduire considérablement le nombre de paramètres sans baisse significative de performance. Cette observation reste valable pour les noyaux des couches de convolution. Le but de cette thèse est de trouver des approximations tensorielles de rang faible permettant une réduction du nombre de paramètres. Ces paramètres peuvent êtres soient les noyaux de convolution; qui sont naturellement modélisés par des tenseurs d’ordre 4; ou des matrices de poids pour les couches entièrement connectées; que nous proposons de convertir sous format tensoriel. Dans cette thèse, d’abord d’un point de vue fondamental, différents modèles tensoriels et algorithmes seront étudiés pour la modélisation et la compression des tenseurs de poids. Des représentations compactes peuvent être obtenues en recourant à des modèles basés sur des représentations classiques, du type décomposition canonique polyadique (CPD), ou sur les réseaux de tenseurs (RTs), en particulier des modèles de trains de tenseurs (TT) et des modèles Tucker hiérarchiques (TH). Le principe des RTs est de transformer des tenseurs d’ordre élevé en un ensemble de tenseurs de petites dimensions et d’ordre au plus égale à $3$. L’intérêt de cette approche est de faire la “super”-compression des tenseurs de poids en utilisant des approximations de rang faible, avec la possibilité de faire du calcul parallèle. Une propriété intéressante des réseaux de tenseurs est leur capacité à effectuer efficacement des opérations, du type produit matriciel, produit de Hadamard ou produit scalaire, sous le format tensoriel. Plusieurs opérations sont développées dans le cas des trains de tenseurs, par exemple la somme ou le produit entre deux matrices sous format TT. Une fois une couche; de convolution ou entièrement connectée; est remplacée par sa décomposition, l’objectif serait d’adapter les opérations importantes de type convolution, produit matrice-matrice ou matrice-vecteur, au format des décompositions adoptées. Cela permettera de: (i) accélérer le temps d’inférence des DNNs, et (ii) adapter l’algorithme d’apprentissage aux poids tensoriels, pour faire des éventuels ajustements des paramètres.

Modélisation et apprentissage des réseaux de neurones:
Ce deuxième axe de recherche propose d’aller plus loin que la modélisation et la compression des poids. Un lien entre les décompositions tensorielles et la modélisation générale des réseaux de neurones sera étudié. Dans cette partie, le but est de formuler le problème d’apprentissage des DNNs comme un problème de factorisation tensorielle. Ce lien a été investigué par des travaux séminaux récents. Certains travaux sont axés sur la mise en relation des décompositions tensorielles avec les réseaux de neurones avec des unités de produit (au lieu d’unités de sommation). Dans d’autres, l’apprentissage d’un réseau de neurones à une seule couche avec des fonctions d’activation “fléxibles” (FAFs) a été formulé comme un problème de décomposition contraint d’un tenseur CPD. Dans ce dernier travail, la décomposition a permis de compresser des réseaux pré-entrainés en estimant conjointement les poids et les nouvelles fonctions d’activations, dites fléxibles. Dans cette thèse, des questions sur la modélisation des NNs seront addressées.
Le but est de modéliser les couches des DNNs, et de proposer des nouvelles méthodes d’apprentissage, basées sur les factorisations tensorielles.

Application à la surveillance automatique basée sur des modèles profonds dans des drones:
Du point de vue des applications, un exemple important est donné par les drones de surveillance automatique utilisant les DNNs. Ces drones représentent une solution de supervision, selon un déploiement alliant homme et machine pour sécuriser automatiquement des grands espaces. Le défi étant de réduire le nombre de paramètres des réseaux pour une implémentation dans des architectures avec des ressources de calcul limitées. Pratiquement, cette réduction du nombre de paramètres signifie des réseaux plus compacts avec une empreinte mémoire réduite, ce qui peut être important pour les architectures avec une RAM ou une mémoire de stockage limitée. A titre d’exemple, le réseau VGG-19 dispose à peu près de 138 millions de paramètres. Il est donc crucial de développer de nouvelles méthodes pour pallier ce déluge du nombre de paramètres. De plus, l’augmentation du nombre de paramètres induit des temps d’execution élevés, ainsi qu’une consommation d’énergie plus importante. Ce sont des grands défis qui restent ouverts quand les modèles profonds sont déployés sur des équipements embarqués tels que des drones. Il est donc nécessaire de gérer efficacement ce problème, et de développer de nouvelles stratégies adaptées aux systèmes embarqués.
Ce sujet de thèse a un lien étroit avec les travaux, en collaboration avec la DGA, réalisés dans notre équipe.
On cite le projet DGA RAPID Manta, porté par Nadège THIRION-MOREAU, où nous nous intéressons à développer un drone intelligent permettant d’éviter automatiquement des obstacles sur la mer. De plus, le projet ANR ASTRID ROV-Chasseur, porté par Thanh Phuong NGUYEN, s’intéresse à la détection et la reconnaissance des objets spécifiques sous-marins (poissons et mines). En effet, ce projet de thèse est la continuité de ces travaux, en considérant également des applications potentielles en surveillance maritime, un domaine d’application clé dans les activités de recherche de l’équipe SIIM. Dans le cadre de ce projet, nous proposons de déployer les modèles profonds efficaces sur les équipements embarqués tels que drones, engin sous-marin télécommandé, ROV (Remotely operated underwater vehicle) pour les applications en surveillance maritime.

Profil du candidat :
Le candidat doit être un ressortissant de l’UE, du Royaume Uni ou de la Suisse.

Formation et compétences requises :
Pour candidater, veuillez envoyer votre CV, relevés de notes avec qualifications et informations pertinentes, avant le 8 avril 2022, à Yassine Zniyed (zniyed@univ-tln.fr) et Thanh Phuong NGUYEN (tpnguyen@univ-tln.fr)

Adresse d’emploi :
Laboratoire d’informatique et systèmes (LIS) UMR 7020
Université de Toulon. Campus de La Garde – Bt X
83041 TOULON

Document attaché : 202203021441_Sujet_AID_version_courte.pdf

Apr
22
Fri
2022
Détection d’anomalies en apprentissage machine
Apr 22 – Apr 23 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire Informatique et Société Numérique (LIS
Durée : 3 ans
Contact : alexandre.baussard@utt.fr
Date limite de publication : 2022-04-22

Contexte :
La détection d’anomalies est un sujet important de l’analyse de données. La définition d’une anomalie peut varier en fonction du domaine d’application ou de l’objectif visé, mais généralement on considère que c’est une observation qui dévie considérablement du reste des autres observations comme si elle était générée par un processus différent. Ainsi, dans certains cas la détection d’anomalies peut permettre d’améliorer la qualité des données par suppression ou remplacement des données anormales. Dans d’autres cas, les anomalies traduisent un événement et apportent de nouvelles connaissances utiles. Par exemple, la détection d’anomalies peut prévenir un dommage matériel et donc inciter à la maintenance préventive dans le domaine de l’industrie. Elles peuvent aussi être signe de la présence d’un nouveau phénomène qu’il faudra essayer de prendre en compte, comme la détection d’une nouvelle classe.

Sujet :
L’apprentissage machine et plus particulièrement l’apprentissage profond (deep learning) permettent d’obtenir des performances très élevées lorsqu’on cherche par exemple à détecter et reconnaitre des objets ou encore à classifier des zones d’intérêt dans des images ou des vidéos. Cependant, en utilisation réelle, il faut décider si une nouvelle observation appartient à la même distribution que les observations existantes (utilisées lors de l’apprentissage), ou si elle doit être considérée comme différentes. Ce type de distinctions peut intervenir à deux niveaux selon les contextes. Dans un premier cas les données d’apprentissage contiennent des observations aberrantes qui sont définies comme des observations éloignées des autres. Les estimateurs de détection des aberrations tentent donc d’ajuster les régions où les données d’apprentissage sont les plus concentrées, en ignorant les observations déviantes. Dans le second cas, les données d’apprentissage ne sont pas polluées par des valeurs aberrantes, mais ces dernières peuvent survenir lors de la phase de te. Dans ce cas, nous sommes intéressés à adjoindre aux méthodes de reconnaissance une aptitude à écarter les nouvelles observations aberrantes. Nous sommes donc intéressés à détecter si une nouvelle observation est une valeur aberrante. Il s’agit notamment d’éviter que le système prenne une décision, à tort, avec une grande confiance. Dans ce contexte, la détection d’une observation aberrante peut avoir différents intérêts car elle pourrait par exemple être liée à une information pertinente jamais rencontrée ou non apprise jusqu’ici. Il apparaît donc important de pouvoir détecter dans un premier temps ces anomalies et, dans un deuxième temps, d’essayer de les exploiter pour mettre en évidence d’éventuelles nouvelles données utiles.

Dans le cadre de ce projet, nous allons nous focaliser sur le deuxième cas, à savoir la détection d’anomalies en condition d’utilisation réelle. Notre objectif en développant ces méthodes de détection est double. Il s’agit d’éviter les erreurs et de progresser vers une meilleure compréhension du processus de prise de décision par ces systèmes souvent considérés comme des « boîtes noires », dont le fonctionnement interne n’est pas explicable. Cela devrait aussi contribuer à caractériser les éléments conduisant à la prise de décision, via par exemple un niveau de confiance dans la décision.

Profil du candidat :
Etudiant de niveau master 2 avec une formation universitaire ou école d’ingénieur.

Formation et compétences requises :
Le candidat devra avoir des compétences en mathématiques appliquées, informatique, statistique, sciences des données et traitement du signal et des images.

Une première expérience dans le domaine de l’apprentissage profond et dans l’utilisation des bibliothèques TensorFlow ou PyTorch seront des plus.

Adresse d’emploi :
Université de Technologie de Troyes

Apr
25
Mon
2022
Semantic Graph Mining for Black-Box Optimisation
Apr 25 – Apr 26 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIP6, Sorbonne Université
Durée : 3 ans
Contact : marie-jeanne.lesot@lip6.fr
Date limite de publication : 2022-04-25

Contexte :
The general aim of the thesis is to exploit expert knowledge regarding properties of optimisation algorithms and problems, represented in the formal frameworks of ontologies and conceptual graphs, and to develop tools to extract automatically underlying correlations: the objective is to allow understanding the reasons why an algorithm is more appropriate than others to solve a problem depending on its characterisation and possibly to offer new tools to configure optimisation algorithms.

Sujet :
The thesis work will explore new methods for analysing conceptual graphs and in particular design dedicated frequent pattern mining algorithms: the aim is to identify subgraphs that occur frequently and can thus be interpreted as relevant regularities, exploiting the particular characteristics of conceptual graphs so as to improve both their efficiency and the relevance of the extracted patterns.
The developed approaches will be used for the exploitation of the OPTImisation algorithm benchmarking ONtology OPTION, with the general goal to derive recommendations for algorithm selection.
The thesis is expected to contribute at the cross-roads of the domains of knowledge representation, pattern mining and black-box optimisation.

Profil du candidat :
A Master’s degree in a quantitative field such as Computer Science, Engineering, Statistics, Operations Research, Mathematics is required. We expect willingness to conduct empirical research as well as experience with the python programming language. Since the student will be working in an international research team, they must be proficient in written and spoken English. Knowledge of French is not required. International students are very welcome to apply.

Formation et compétences requises :
Master’s degree in a quantitative field such as Computer Science, Engineering, Statistics, Operations Research, Mathematics
Python programming language

Adresse d’emploi :
LIP6, UMR7606
Sorbonne Université
4 place Jussieu
75005 Paris

Document attaché : 202204080914_2022thesisLIP6GraphMiningForBlackBoxOptimisation.pdf

Apr
29
Fri
2022
Apprentissage de représentations invariantes au domaine pour l’analyse de séries temporelles d’image
Apr 29 – Apr 30 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ICube – Université de Strasbourg
Durée : 36 mois
Contact : gancarski@unistra.fr
Date limite de publication : 2022-04-29

Contexte :
L’objectif de cette thèse est d’étudier et développer des modèles pour l’apprentissage de représentations invariantes par domaine (Deep Learning) pour l’analyse de séries temporelles d’images satellitaires.

Cette thèse cofinancée par le CNES et par la Chaire Industrielle en Sciences des Données et Intelligence Artificielle sera dirigée par Thomas Lampert et Pierre Gançarski.

La date limite de dépôt des dossier auprès du CNES étant fixée en mars 2022, les candidats doivent impérativement prendre contact avec nous le plus rapidement possible afin de nous laisser le temps d’étudier leur candidature et d’organiser une audition si nécessaire.

Sujet :
L’objectif du projet est de développer des modèles d’apprentissage de représentations invariantes par domaine en utilisant l’apprentissage profond pour l’analyse de séries temporelles d’images satellites.

Il est difficile et coûteux d’annoter l’énorme quantité de données générées par les satellites, mais cela est nécessaire pour le succès des algorithmes d’apprentissage profond. Pour surmonter ce problème, des techniques d’apprentissage par transfert et d’adaptation au domaine seront développées pour exploiter les données non étiquetées. Ces techniques permettent d’améliorer les performances d’un algorithme avec un minimum (ou potentiellement aucune) annotation supplémentaire, ce qui réduit le coût du déploiement.

Detailed Description: https://drive.google.com/file/d/1_eil1utHBjfTwhmXQjR6VUM07jbJkYgk/view?usp=sharing

Profil du candidat :
Master en Informatique avec de fortes connaissances en Sciences des Données. Une connaissance de la télédétection est un plus indéniable.

Pour postuler, envoyez un mail à lampert@unistra.fr et pierre.gancarski@unistra.fr en joignant impérativement :
– une lettre de motivation expliquant vos qualifications, expériences et motivations ;
– un curriculum vitae
– toutes les informations sur votre cursus universitaire : parcours, diplômes obtenus, relevés de notes ainsi que votre classement pour chacune des années de Master ou équivalent pour les écoles d’ingénieurs;
et si possible, les coordonnées des personnes (enseignants ou autres personnes) pouvant fournir des informations sur vos compétences, votre motivation et votre travail.

Formation et compétences requises :
Des compétences pratique en apprentissage profond sont indispensables

La possibilité d’effectuer un stage gratifié de M2 au sein de l’équipe SDC pour acquérir ces compétences est aussi possible, voire encouragé. N’hésitez pas à vous renseigner.

Adresse d’emploi :
ICube Strasbourg (Site d’Illkirch – Pôle API)

Document attaché : 202202070930_CNES_PhD_advert.pdf

Apr
30
Sat
2022
Tokenisation et interopérabilité des systémes blockchain
Apr 30 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : LAMSADE
Durée : 3 ans
Contact : kbelhajj@googlemail.com
Date limite de publication : 2022-04-30

Contexte :
Le monde des services financiers est depuis longtemps l’un des précurseurs de l’innovation digitale à travers l’informatisation de ses processus, de ses outils et de ses services. La période récente voit l’émergence de nombre de nouvelles technologies faisant évoluer les pratiques, et notamment la technologie Blockchain qui a le potentiel de totalement remodeler les services financiers dans le monde de la banque de financement et d’investissment (par exemple activités d’émissions sur les marchés, de financements, de gestion et de couverture des risques).

Sujet :
Dans ce contexte, BNP Paribas CIB en collaboration avec l’Université Paris-Dauphine explore les opportunités et impacts de la tokenization liés à la technologie Blockchain. Une certaine expertise a étét déjà aquise basée sur des développements concrets, en prenant en compte les aspects technologiques, légaux et réglementaires. Il reste cependant un grand champ d’incertitudes liées à cette technologie, et notamment l’interopérabilité entre les différents protocoles. A ce stade, il est clair que la consolidation technologique n’a pas eu lieu, et n’aura probablement pas lieu avant plusieurs années, et dans certains domaines seulement. Par exemple, la tokenization de « cash » (via les acteurs centraux par exemple) et la tokenization de titres financiers seront probablement sur ces bases technologiques différentes. De la même manière, la gestion d’espaces publics (e.g. Ethereum) et d’espaces privés sera instrumentale dans la capacité à gérer la valeur financière dans ce nouveau monde.

Les travaux s’orienteront donc majoritairement sur l’interopérabilité technologique, que ce soit via les divers langages de smart contrats, des techniques de cryptographie, la gestion d’« incentives » d’un écosystème, les tokenomics etc. afin d’assurer l’unicité digitale d’un univers à l’autre de manière sécurisée et irréfutable

Les orientations données à la thèse pourront être choisies au prisme des intérêts de recherche et de leur caractère scientifiquement novateur, des appétences du candidat, via une discussion avec l’encadrant CIFRE et le directeur de thèse.

Profil du candidat :
Vous êtes diplômé(e) d’un bac+5 et souhaitez vous orienter vers un doctorat en Sciences de l’Informatique.
Vous avez également des appétences pour les nouvelles technologies et les leviers digitaux. Vous parlez couramment français et anglais et vous maîtrisez un langage de développement type Java. Des connaissances sur les bases de la cryptographie, les technologies Blockchain (layer 1 et/ou 2) ainsi que les langages de smart contrats les plus communs (e.g. Solidity pour Ethereum/Polygon, SmartPy pour Tezos, DAML, Hyperledger Fabric…), les technologies d’interopérabilités type Cosmos ou Polkadot sont un plus.

Formation et compétences requises :
Votre adaptabilité et votre capacité à collaborer sont des atouts essentiels. Ajoutez à cela votre capacité à communiquer, votre capacité de synthèse ainsi que votre rigueur pour finir de nous convaincre.

Enfin, nous attachons une importance particulière à ce que nos futurs collaborateurs agissent au quotidien avec responsabilité éthique et professionnelle.

Dans un monde qui change, la diversité, l’équité et l’inclusion sont des valeurs clés pour le bien-être et la performance des équipes. Chez BNP Paribas, nous souhaitons accueillir et retenir tous les talents sans distinction : c’est ainsi que nous construirons, ensemble, la finance de demain, innovante, responsable et durable.
À tout moment pendant le processus de recrutement, les informations figurant sur votre CV et vos données d’identification pourront être vérifiées par un prestataire extérieur mandaté par BNP Paribas.

Indications complémentaires en vue du recrutement
Date de recrutement : à partir de septembre 2022
Rémunération: compétitive à l’échelle d’un consultant BNP.
Financement : bourse de thèse CIFRE BNP Paribas CIB
Environnement, une équipe BNP bien affirmée en matière de recherche et développement qui compte une dizaine de doctorants Cifre.
Laboratoire académique : LAMSADE, Université Paris Dauphine – PSL

Adresse d’emploi :
LAMSADE, Université Paris Dauphinen, Paris, et
BNP, Paris

Les personnes intéressées sont invitées à envoyer leur CV, relevés des trois années dernières (et de cette année si applicable), ainsi que la lettre de motivation à Daniela Grigori (daniela.grigori@lamsade.dauphine.fr) et Khalid Belhajjame (kbelhajj@gmail.com)

Document attaché : 202202270954_AnnonceTheseCifre-Dauphine-BNP.pdf

Abductive Reasoning with Minimal Sensing in a Home Environment
Apr 30 – May 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIMOS / Mines Saint-Étienne
Durée : 3 ans
Contact : victor.charpenay@emse.fr
Date limite de publication : 2022-04-30

Contexte :
The thesis is equally funding by ANR (Agence Nationale de la Recherche) and elm.leblanc, one of the leading home automation system vendors. One of the main technical challenges in modern home automation is to using Artificial Intelligence (AI) to minimize the energy consumption of technical systems without loss of comfort. For instance, the production of hot water can be optimized by dynamically adapting the temperature of water and the time of use of the boiler based on activities monitored in the home. The general objective of the thesis is to monitor human activities without ubiquitous sensing capabilities.

Sujet :
The domain of research of the thesis is knowledge representation and reasoning, a subfield of AI. Its objective is to evaluate abductive reasoning methods over sensor measurements performed in a home environment. Abductive reasoning in this context consists in finding logically sound hypotheses (e.g. ‘the dishwasher is on’) that explain observed sensor measurements (‘electric consumption has risen in the last two hours’) according to a model of human activity in a home.

Profil du candidat :
Prior knowledge in AI is expected, especially in computational logics, logic programming and/or Semantic Web technologies. Basic understanding of statistical inference methods and linear programming is also considered important.

Formation et compétences requises :
Holder of a Master’s degree in computer science or data science. Technical skills required for the thesis include: multi-paradigm programming (Java, Lisp, R, Prolog, …), data modeling (UML, OWL, E/R, BPMN, …), Linux system administration (Bash, SSH, Docker, …).

Adresse d’emploi :
Saint-Étienne

Document attaché : 202203300752_phd-offer.pdf

SEGMENTATION D’IMAGES MÉDICALES PAR APPRENTISSAGE SUR DONNÉES 3D NON STRUCTURÉES
Apr 30 – May 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : CREATIS
Durée : 3 ans
Contact : sebastien.valette@creatis.insa-lyon.fr
Date limite de publication : 2022-04-30

Contexte :
Segmenter des images médicales est un problème encore ouvert, avec de nombreuses applications possibles pour la médecine personnalisée et l’analyse de cohortes. La segmentation d’images est un problème bien étudié pour les images naturelles 2D, les meilleurs résultats ayant été obtenus ces dernières années grâce aux réseaux de neurones convolutifs. Cependant, la segmentation d’images médicales est encore un problème ouvert. Des approches de segmentation par réseaux de neurones ont déjà été proposées, mais elles sont difficilement applicables pour des images 3D voxeliques de grande taille.

Le but de cette thèse, et son originalité principale, est de s’affranchir de l’échantillonnage régulier des images 3D voxeliques, pour proposer une approche de segmentation indépendante de l’échantillonnage des images et possiblement de leur modalité d’acquisition. Il pourra aussi être envisagé l’introduction de contraintes manuelles ou de corrections par l’utilisateur pour guider la segmentation dans les cas les plus difficiles.

Sujet :
Descriptif complet ici: https://www.creatis.insa-lyon.fr/site7/fr/node/47192

Les images médicales 3D, acquises par IRM ou scanner X, sont stockées sous forme de grille de voxels, dont les dimensions peuvent atteindre ou dépasser 512x512x512 pour les images corps entier. L’utilisation de réseaux de neurones convolutifs pour segmenter de telles images est rendue difficile par une empreinte mémoire très importante et des temps d’exécutions très longs.

Pour contourner ce problème, nous proposons d’éviter l’utilisation des réseaux de neurones définis sur la grille originale de l’image 3D, et projetons d’explorer des approches d’apprentissage sur données 3D non structurées. Ce type de données apporte cependant une autre difficulté : les données non structurées 3D, telles que les nuages de points, ne peuvent pas être traitées par les réseaux de neurones convolutifs classiques, et nécessitent des réseaux de neurones spécifiques. Un autre problème est le nombre relativement faible d’images de référence segmentées disponibles, ce qui rend l’apprentissage plus difficile.
Nous proposons pour cette thèse de privilégier l’utilisation de nuages de points pour l’apprentissage, à travers notamment l’étude et l’extension des techniques récentes.

Un jeu de données d’images médicales 3D comportant plusieurs modalités accompagnées des références de segmentation est disponible pour la conduite des expériences et l’évaluation des algorithmes dans cette étude.

Profil du candidat :
Nous recherchons un.e collabora.teur.trice motivé.e, capable de faire preuve d’esprit critique, de prendre des initiatives et de travailler aussi bien de manière autonome que dans un cadre collectif.

Formation et compétences requises :
Le.la candidat.e doit être titulaire d’un master en informatique, traitement d’images, apprentissage automatique ou dans un domaine proche, doit avoir des acquis solides en mathématiques appliquées, en traitement d’images et en informatique, ainsi que de bonnes compétences en programmation. Une connaissance pratique des méthodes d’apprentissage profond est nécessaire. Les connaissances en l’imagerie médicale sont un plus.

Adresse d’emploi :
CREATIS, Lyon

Document attaché : 202203291006_Thèse Segmentation d’images médicales par apprentissage sur données 3D non structurées.pdf