Présentation Générale

 



           
Huitième édition du Symposium MaDICS (les inscriptions sont ouvertes !)

Ce rendez-vous annuel rassemble la communauté MaDICS afin de mettre en lumière les avancées récentes en sciences des données, à travers un programme scientifique riche comprenant des conférences invitées (keynotes), des ateliers thématiques, des tables rondes et des sessions de posters.
Ces temps forts favorisent des échanges scientifiques à la fois stimulants et conviviaux.

Une Session Poster sera spécialement consacrée aux jeunes chercheuses et jeunes chercheurs souhaitant présenter leurs travaux en analyse et gestion de données et dans les domaines interdisciplinaires autour de la Science des Données. Cette session sera également l’occasion d’échanger avec des collègues académiques et des acteurs industriels sur les thématiques de recherche présentées.

Dates importantes :

  • Soumission de posters : au plus tard le 23 mars 2026 2 avril 2026
  • Retour : 9 avril 2026
  • Date limite d’inscription : 30 avril 2026
  • Symposium : les 2 et 3 juin 2026 à Avignon

Nous vous invitons d’ores et déjà à réserver ces dates dans votre agenda et à vous inscrire !
Inscrivez-vous ici

Pour en savoir plus…

MaDICS est un Groupement de Recherche (GDR) du CNRS créé en 2015. Il propose un écosystème pour promouvoir et animer des activités de recherche interdisciplinaires en Sciences des Données. Il est un forum d’échanges et d’accompagnement pour les acteurs scientifiques et non-scientifiques (industriels, médiatiques, culturels,…) confrontés aux problèmes du Big Data et des Sciences des données.
Pour en savoir plus…


Les activités de MaDICS sont structurées à travers des Actions et Ateliers. Les Actions rassemblent les acteurs d’une thématique précise pendant une durée limitée (entre deux et quatre ans). La création d’une Action est précédée par un ou plusieurs Ateliers qui permettent de consolider les thématiques et les objectifs de l’action à venir.


Le site de MaDICS propose plusieurs outils de support et de communication ouverts à la communauté concernée par les Sciences des Données:

  • Manifestations MaDICS : Le GDR MaDICS labellise des Manifestations comme des conférences, workshops ou écoles d’été. Toute demande de labellisation est évaluée par le Comité de Direction du GDR. Une labellisation rend possible un soutien financier pour les jeunes chercheuses et chercheurs. Une labellisation peut aussi être accompagnée d’une demande de soutien financier pour des missions d’intervenants ou de participants à la manifestation.
    Pour en savoir plus…
  • Réseaux MaDICS : pour mieux cibler les activités d’animation de la recherche liées à la formation et à l’innovation, le GDR MaDICS a mis en place un Réseau Formation destiné à divers publics (jeunes chercheurs, formation continue,…), un Réseau Innovation pour faciliter et intensifier la diffusion des recherches en Big Data, Sciences des Données aux acteurs industriels et un Club de Partenaires qui soutiennent et participent aux activités du GDR.
    Pour en savoir plus…
  • Espace des Doctorants : Les doctorants et les jeunes chercheurs représentent un moteur essentiel de la recherche et le GDR propose des aides à la mobilité et pour la participation à des manifestations MaDICS.
    Pour en savoir plus…
  • Outils de communication : Le site MaDICS permet de diffuser des informations diverses (évènements, offres d’emplois, proposition de thèses, …) liées aux thématiques de recherche du GDR. Ces informations sont envoyées à tous les abonnés de la liste de diffusion MaDICS et publiés dans un Calendrier public (évènements) et une page d’offres d’emplois.

Adhésion au GDR MaDICS : L’adhésion au GDR MaDICS est gratuite pour les membres des laboratoires ou des établissements de recherche publics. Les autres personnes peuvent adhérer au nom de l’entreprise ou à titre individuel en payant une cotisation annuelle.
Pour en savoir plus…


Manifestations à venir

Journées Ecoles Conférences et Séminaires

Actions, Ateliers et Groupes de Travail :

CODA DAE DatAstro DSChem EXMIA GINO GRASP RECAST SaD-2HN SIMDAC SimpleText TIDS  


Jul
8
Thu
2021
Prediction of demographic indicators from remote sensing images
Jul 8 – Jul 9 all-day

Offre en lien avec l’Action/le Réseau : MACLEAN/– — –

Laboratoire/Entreprise : Université de Paris / INED
Durée : 3 ans
Contact : camille.kurtz@parisdescartes.fr
Date limite de publication : 2021-07-08

Contexte :
General information
• When to apply: until the 12th of May 2021
• Starting date: October 2021
• Funding: EDITE doctoral school (subject to being approved by the EDITE committee.)
• Institutes: Université de Paris, Laboratoire d’Informatique Paris Descartes (LIPADE), équipe Systèmes Intelligents de Perception and Institut national d’études démographiques, unité Démographie des populations du Sud (Demosud)
• Location: 45 rue des Saints-Pères, 75006 Paris (LIPADE) and 9, cours des Humanités, 93322 Aubervilliers (INED)
• Supervision: Sylvain Lobry, Camille Kurtz, Laurent Wendling – (first.lastname@u-paris.fr), Géraldine Duthé, Valérie Golaz (first.lastname@ined.fr)
• Keywords: Remote sensing, Demography, Computer vision, Deep learning, Africa

Sujet :
Objective
In this PhD, which stems from and strenghtens an on-going collaboration between LIPADE and INED, the candidate will develop deep learning based methodologies using remote sensing data to
predict indicators of the environment and environmental change, for demographic analysis. As such, the objective of this topic is twofold: to propose methodological contributions for the large-scale extraction of diachronic environmental indicators and to analyze their contribution to spatial population and health analyses. How do these indicators compare with the existing environmental data?
What results do they yield in terms of the impact of environmental characteristics and environmental change on population structure and health in Sub-Saharan Africa? We expect prime results in the field of computer science (innovative methodologies) and demography (a better understanding of local inequalities in terms of population structure and health) as well as a contribution to the use of fine remote sensing data analysis for population studies.

Context
In a globalized context increasingly impacted by climate change, undergoing rapid population growth and urbanization, demographic studies would gain to better take environmental data into account and be carried out at the transnational level. However, this is not always possible in Sub-Saharan Africa, as matching harmonized demographic and environmental data are seldom available. One major harmonized source of data on population and health in global South countries is the Demographic and Health Surveys (DHS) program. Since 2015, Demographic and Health Surveys were conducted once in about all the countries that participate in the program across Sub-Saharan Africa. To date, in spite of the delays in data collection and data set preparation due to the Covid-19 lockdowns, 16 data sets are already available for use, with matching geodata files. The large amount of spatial data regularly acquired since 2015 (in 2019 only, Sentinel satellites from the European Space Agency produced 7.54 PiB of open-access data 1 ) are an opportunity to produce standardized and up-to-date indicators.

Profil du candidat :
We are looking for a student in Master 2 or engineering school in computer science data science or demography.

Formation et compétences requises :
The ideal candidate would have knowledge in image processing, computer vision, machine learning, Python programming, statistical data analysis and demographic research. The candidate should have an interest in large scale studies, remote sensing and demography.

Adresse d’emploi :
45 rue des Saints-Pères, 75006 Paris (LIPADE) and 9, cours des Humanités, 93322 Aubervilliers (INED)

Document attaché : 202105030918_PhD – Prediction of demographic indicators from remote sensing images.pdf

Jul
10
Sat
2021
Graph Compression
Jul 10 – Jul 11 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire Informatique de Bourgogne
Durée : 3 ans
Contact : hocine.cherifi@u-bourgogne.fr
Date limite de publication : 2021-07-10

Contexte :
Financing Institution:
ANR Contract Coregraphie (ANR-20-CE23-0002)
Application Deadline: June 25, 2021
Contract starts: October 01, 2021
Supervisors:
H. Cherifi (LIB, Dijon), H. Séba (LIRIS, Lyon), O. Togni (LIB, Dijon)

Contacts:
hocine.cherifi@u-bourgogne.fr, hamida.seba@univ-lyon1.fr, olivier.togni@u-
bourgogne.fr

Sujet :

Subject:
In this Big Data world, we face the central issue of processing massive graphs. The approach considered in the ANR project Coregraphie is to build a summary (or compressed version) of the graph and to query this summary instead of the original graph.
One can distinguish between lossless and lossy compression techniques. Lossless compression (or compact coding) decreases the size of the graph representation without losing any information while controlling the cost induced by coding on the operations, like, for instance, in WebGraph [BV04].
Lossy compression allows a part of the information (nodes and edges) to be lost. If the compression is by deleting edges, one speaks of sparsification. This subclass of lossy compression allows more effective requests, such as estimating the distance between two nodes [KB+21]. Lossy compression is mainly accomplished using two approaches: Selecting a sample, i.e., a sub-graph using different technics (random walks, propagation, filtering, etc.) [HL13] and grouping nodes/edges (generalization) [CR15]. In most cases, lossy compression methods are specialized for one type of request [FL+12].
One major issue for lossy compression is determining to which extent the compression algorithms damage the initial graph and how this damage can be measured and controlled. This thesis aims to concentrate on lossy compression. We plan to investigate the impact of compression methods on the graph topological properties and/or requests performed. We propose approaching this issue starting with simple requests such as testing neighborhoods or proximity between nodes. We will then study more complex requests such as finding a given size clique, clustering [QK15] or partitioning the graph into independent sets [T19].
Among further aspects that can be explored are:
The links with lossless compression and combined approaches;
Links with structural properties, in particular with some orders/hierarchies ((k-
shells, k-trusses, modular decomposition, twin-width, etc.);
Links with community structure and centrality measures [GC+20];
Compromises between preserving properties and anonymizing [MRT20].

The main application domain is social networks. Indeed, the LIB lab has the
scientific environment to handle massive online social data. Data from Medicine, Biology, Economics may also be considered. The final goal is to propose effective tailored compression methods and generic compression schemes to deal with many types of requests while controlling the bias induced by the compression.

References

[BV04] P. Boldi and S. Vigna, The webgraph framework i: Compression techniques. In Proceedings of the 13th International Conference on World Wide Web, WWW ’04, pages 595–602, New York, NY, USA, 2004. ACM.
[CR15] J. Casa-Roma, F. Rousseau, Community-preserving generalization of social networks. In IEEE. 2015 IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining (ASONAM).
[S.l.], 2015. p. 1465–1472.
[FL+12] W. Fan, J. Li, X. Wang, and Y. Wu, Query preserving graph compression. In
Proceedings of the 2012 ACM SIGMOD International Conference on Management of
Data (SIGMOD ’12), 2012. DOI:https://doi.org/10.1145/2213836.2213855
[GC+20] Z. Ghalmane,C. Cherifi, H. Cherifi, M. El Hassouni. Extracting backbones in
weighted modular complex networks. Sci Rep 10, 15539 (2020).
https://doi.org/10.1038/s41598-020-71876-
[HL13] P. Hu and WC. Lau, A survey and taxonomy of graph sampling. 2013. CoRR abs/1308.5865, http://arxiv.org/abs/1308.5865,1308.5865
[KB+21] A. E. Kiouche, J. Baste, M. Haddad and H.Seba. A Neighborhood-preserving Graph Summarization, 2021, coRR abs/ 2101.11559, https://arxiv.org/abs/2101.11559.
[MRT20] G. Minello, L. Rossi and A. Torsello, k-Anonymity on Graphs using the Szemerédi Regularity Lemma, IEEE Transactions on Network Science and Engineering, 2020,
https://doi.org/10.1109/TNSE.2020.3020329.
[QK15] F. Queyroi and S. Kirgizov. Suppression distance computation for hierarchical clusterings. Information Processing Letters, Volume 115, Issue 9, 2015.
[T19] O. Togni. Coloring Large Real World Networks : the DSAT-ratio, In MARAMI 2019, 2019.
[YAA21] M. I. Yousuf, I. Anwer and R.Anwar, Empirical Characterization of Graph
Sampling Algorithms, 2021, coRR abs/2102.07980 , https://arxiv.org/abs/2102.07980

Profil du candidat :
Master degree or Engineer in computer science, mathematics or physics with
strong skills in graph algorithms/network science / Data Science/data mining and programming in
Python/C++/Java.

Formation et compétences requises :
Master degree or Engineer in computer science, mathematics or physics with
strong skills in graph algorithms/network science / Data Science/data mining and programming in
Python/C++/Java.

Adresse d’emploi :
Laboratoire Informatique de Bourgogne

Document attaché : 202106151222_PhDproposal-Coregraphie-LIB-enHC.docx

Jul
15
Thu
2021
Apprentissage semi-supervisé pour l’analyse d’images et séries temporelles en agriculture
Jul 15 – Jul 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : PRISME (INSA CVL) ; LIFAT (Université de Tours)
Durée : 36 mois
Contact : adel.hafiane@insa-cvl.fr
Date limite de publication : 2021-07-15

Contexte :
Les adventices sont en concurrence directe avec les plantes cultivées dans la recherche d’humidité, des nutriments et de la lumière du soleil. Elles ont ainsi un important impact négatif sur le rendement agricole si leur présence n’est pas suffisamment contrôlée. D’après l’organisation de recherche environnementale de la Nouvelle Zélande, Land Care, les adventices ont été à l’origine d’environ 95 milliards de dollars de pertes sur la production vivrière à l’échelle mondiale. L’Organisation des Nations Unies pour l’Alimentation et l’Agriculture (FAO) considère que les adventices devraient être reconnues comme l’ennemi naturel numéro 1 pour la production agricole (FAO 2009). La lutte contre les adventices a toujours été considérée comme un défi majeur pour la production agricole. Les approches et tendances actuelles en perception (technologies des capteurs d’images et de localisation, méthodologies d’acquisition et de traitement des images), en robotique et en général en intelligence artificielle (IA), ouvrent la voie à de nouvelles avancées prometteuses. Il existe aujourd’hui une tendance vers l’agriculture numérique et robotisée pour résoudre les différents problèmes et améliorer les conditions du travail dans les domaines agricoles.

Sujet :
La détection et la reconnaissance des plantes à partir de capteurs optiques sont parmi les défis majeurs pour le désherbage automatique. Malgré les avancées considérables enregistrées ces dernières années concernant les méthodes de reconnaissance visuelle automatique, notamment grâce au deep learning, les capacités de discriminations entre végétations restent limitées. C’est le cas lorsque l’on observe des variations dans les conditions d’éclairage, de l’occultation entre plantes, des changements de terrain, ainsi qu’en fonction des stades de développement des cultures… L’un des points clés pour la réussite d’un algorithme de type deep learning est l’abondance de données étiquetées, qui est une limitation dans le domaine de l’agriculture numérique. Le processus d’étiquetage nécessite généralement l’intervention d’experts, ce qui constitue l’une des principales limites de construction de bons modèles robustes et généralisables avec les réseaux neuronaux profonds. Le travail de la thèse consistera à pallier ce type de problèmes en développant de nouvelles méthodes pour cartographier des adventices à partir d’images de drone à haute résolution, avec des algorithmes d’analyse d’images et d’apprentissage automatique (semi-supervised learning, weak learning, generative learning, attention mechanism, transformers,…). Cette cartographie sera améliorée en prenant en compte des données de natures différentes comme la biologie végétale, la météo, … En particulier, la prise en compte d’un modèle prédictif alimenté par des données hétérogènes multisources (météo régionale, capteurs locaux, historique de la cartographie…) devrait permettre de prédire la probabilité de présence et de croissance des plantes localement et améliorer ainsi la détection. Que ce soit sur la reconnaissance de végétaux ou la prédiction, de nouvelles contributions en machine learning seront étudiées.

Modalité de candidature
Transmettre par courriel aux contacts ci-dessous : un CV, lettre de motivation et relevés de notes avant le 08 juillet 2021.

Profil du candidat :
– Master 2 et/ou école d’ingénieur

Formation et compétences requises :
– Compétences en vision par ordinateur et en machine learning
– Des connaissances en robotique seront appréciées mais pas indispensable.
– Compétences en développement Python, C/C++, …
– Bon niveau en anglais

Adresse d’emploi :
L’encadrement et la direction de la thèse seront assurés par des chercheurs des laboratoires PRISME (INSA CVL-Université d’Orléans) et LIFAT (Université de Tours). La thèse est financée par un projet de recherche régionale. Elle se déroulera à l’INSA CVL sur le campus de Bourges.

Document attaché : 202106281536_sujetThèseDesherbrob.pdf

Jul
22
Thu
2021
Un assistant en langue naturelle pour interroger le Web sémantique
Jul 22 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRISA, équipe SEMLIS
Durée : 3 ans
Contact : ferre@irisa.fr
Date limite de publication : 2021-09-30

Contexte :
Les technologies du Web sémantique [1] associent la précision et la puissance des bases de données à l’ouverture et l’interopérabilité du Web. Le W3C a standardisé plusieurs langages pour le Web sémantique, notamment :
• RDF pour la représentation des données ;
• RDFS pour la définition du schéma de ces données ;
• SPARQL pour l’interrogation de ces données.
L’écriture de requêtes SPARQL est au même niveau que l’écriture de requêtes SQL et n’est donc pas accessible au plus grand nombre. De nombreuses approches ont été proposées pour faciliter l’interrogation de données sémantiques [6]. La plupart sont des interfaces en langue naturelle [2,3] où l’utilisateur peut formuler sa question de façon spontanée. Cependant, en raison de la complexité de la langue naturelle, ces approches sont limitées aux questions les plus simples (ex., “Qui est la femme de Barack Obama?”) et manquent à la fois de robustesse (pas de réponse) et de fiabilité (mauvaises réponses). D’autres approches, telles que les constructeurs de requêtes et la recherche à facette [8], s’appuient sur l’interactivité pour guider pas à pas l’utilisateur dans la formulation de ses requêtes. Elles offrent une plus grande fiabilité en donnant davantage de contrôle à l’utilisateur mais sont d’utilisation moins spontanée.
L’équipe SemLIS a développé un outil de recherche sémantique, Sparklis [5], qui combine l’expressivité de SPARQL, le guidage de type recherche à facettes pour la construction de requêtes et la verbalisation des requêtes en langue naturelle. Néanmoins, la construction pas à pas des requêtes peut s’avérer fastidieuse, par exemple pour de grandes bases de données ou lorsque l’utilisateur commence à bien connaître le vocabulaire de la base.

Sujet :
L’objectif de cette thèse est d’explorer et d’évaluer l’ajout d’un dialogue en langue naturelle spontanée au-dessus d’un système interactif de construction guidée de requêtes, tel que Sparklis. L’avantage attendu de passer par ce système interactif pour construire une requête, plutôt que de produire directement une requête cible, est que celui-ci serve de guide dans la résolution des ambiguïtés inhérentes à la langue naturelle. Par exemple, si un utilisateur cherche des “scientifiques français en informatique” dans DBpedia, il pourrait d’abord demander les “scientifiques français”. Le système demanderait alors s’il préfère ceux “nés en France” (propriété dbo:birthDate) ou ceux “de nationalité française” (propriété dbo:nationality). Après avoir consulté les résultats, l’utilisateur pourrait compléter sa recherche en demandant “ceux en informatique”, etc.
Le principal verrou scientifique par rapport aux approches existantes en question answering est de parvenir à construire des requêtes, en une ou plusieurs étapes, sans que la robustesse et la fiabilité ne baissent sensiblement avec l’accroissement de leur complexité. Un autre verrou scientifique est de rendre l’interaction suffisamment fluide, c’est-à-dire avoir des délais de réponse compatibles avec l’interaction et un nombre limité de questions du système à l’utilisateur.
L’étude bibliographique consistera à étudier les différentes approches de l’interrogation du Web sémantique [6,2] en approfondissant les techniques employées dans les approches d’interrogation en langue naturelle [3].
La stratégie envisagée consistera à concevoir, réaliser et évaluer différentes solutions, en partant de solutions simples et en évoluant vers des solutions plus complexes en fonction des résultats obtenus. Il s’agira de réutiliser des outils et ressources existantes dans le domaine du traitement de la langue [7] pour analyser les phrases de l’utilisateur, et de piloter le système de construction guidée en fonction des éléments reconnus. L’utilisateur doit pouvoir exprimer son besoin d’information en plusieurs étapes, alterner entre expression en langue naturelle et navigation dans l’interface. De plus, le système doit savoir poser des questions à l’utilisateur pour résoudre les ambiguïtés résiduelles.
Les solutions développées pourront être évaluées sur des jeux de questions-réponses tels que QALD [4] (questions simples) ou LC-QuAD 2.0 [9] (questions complexes). Ces questions portent sur les bases DBpedia et Wikidata, qui jouent un rôle central dans le Web sémantique.

Profil du candidat :
Titulaire d’un master en informatique avec une formation à la recherche.

Formation et compétences requises :
• Web sémantique (RDF, RDFS, SPARQL 1.1)
• Traitement automatique de la langue (TAL)
• Algorithmes de recherche, de résolution de problème (IA)
• curiosité, autonomie, rigueur et ténacité
• goût pour l’expérimentation
• développement d’applications Web (la connaissance du langage OCaml serait un plus)

Adresse d’emploi :
IRISA, Campus de Beaulieu, 35042 Rennes cedex

Document attaché : 202104220737_sujet_de_these_Sparklis_QA_v2.pdf

Jul
25
Sun
2021
Unbalanced Optimal transport for novelty and out-of-distribution detection
Jul 25 – Jul 26 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LITIS laboratory (INSA ROUEN) and IRISA Vannes (Un
Durée : 3 ans
Contact : laetitia.chapel@irisa.fr
Date limite de publication : 2021-07-25

Contexte :
To be safe, a decision device learned from data requires a mechanism that adapts the decision according to whether or not there is a discrepancy between the distribution ptrain(Xtrain; Ytrain) of the training samples and the ones of test samples ptest(Xtest; Ytest). In case of distribution shift, deep-basedapproaches may be overconfident and tend to treat the given inputs as one of the previously seen situations leading to mislabelling. This brings to the scientific challenges of detecting out-of-distribution (OOD)
samples (the test point x0 is marginally sampled from ptest(x0)= ptrain(x0)) or of recognizing that point x0 belongs to an unseen class (new type of object occurs in the scenes). Moreover due to the multimodal nature of the inputs and sensors availability, the samples may not be embedded into the same space, and hence compromising the success of the detection task. We envision to leverage on the optimal transport theory to implement algorithms dealing with out-of-distribution detection, with specific applications on road scene.
Optimal transport (OT) has emerged as a powerful tool to compute distances (a.k.a. Wasserstein or earth mover’s distances) between empirical distribution of data, thanks to new computational schemes
that make the transport computation tractable. It has wide applications in computer vision, statistics, imaging and has been recently introduced in the machine learning community to efficiently solve
classification or transfer learning problems. The advantage of OT is that it can compare possibly high dimensional empirical probability measures, taking into account the geometry of the underlying metric spaces and dealing with discrete measures. Classical optimal transport problem seeks a transportation map that preserves the total mass between two probability distributions, requiring their mass to be the same. This may be too restrictive in certain applications such as color or shape matching, since the distributions may have arbitrary masses and/or
that only a fraction of the total mass has to be transported. This happens also when datasets Xtrain and/or Xtest are contaminated by outliers, in which we may want to discard them from the tranportation
plan: this is the unbalanced[5] or the partial OT problem. Several algorithms have been devised to solve the problem, among them solve the exact partial problem when given as input the total mass that has to be transported between the two empirical distributions. More recently, the team has been developped to solve the unbalanced problem, providing the first regularization path for unbalanced OT.

Sujet :
The objective of the thesis is to study and implement OT-based strategies for dealing with OOD samples or when the datasets are contaminated by outliers.
In many cases, the number of such samples are unknown and should be estimated from the data. To do so, one can rely on two-sample tests and their Wasserstein counterparts [9]; when there is a shift between ptrain and ptest, or even when the 2 distributions do not lie on the same space, one can rather build on the Gromov-Wasserstein based tests.

In more details, the aim is to study how the partial/unbalanced formulation of OT can be used in the OOD and outliers scenarii. Integration of two-sample tests within the OT formulation as a regularization term will be considered first. As such, we aim at estimating from the data the proportion of contaminated samples in the datasets, together with the optimal transport plan in a unified formulation, even when the 2 distributions live in incomparable spaces. One can also rely on the regularization path to select the “best” regularization parameter in a given context. Integration of partial-OT-based loss in deep-based approaches will serve as a playground to evaluate the proposed methods. The scalability
should be an important feature of the methods to be developed.
From an application point of view, a particular attention will be given on OOD detection for road scene. The intended methods will be evaluated on real-world datasets comprising of automotive images (such as nuScenes, KITTI) or on autonomous car scene benchmark https://github.com/OATML/
oatomobile in order to build robust system for road scene analysis. The developed methods will be challenged with some current position approaches and their applications.

Profil du candidat :
Applicants are expected to be graduated in computer science and/or machine learning and/or signal & image processing and/or applied mathematics/statistics, and show an excellent academic
profile. Beyond, good programming skills are expected.

Formation et compétences requises :
computer science and/or machine learning and/or signal & image processing and/or applied mathematics/statistics

Adresse d’emploi :
Vannes or Rouen

Document attaché : 202106301333_Unbalanced optimal transport for OOD.pdf

Jul
30
Fri
2021
Reconstruction du champ de vitesses Doppler par apprentissage profond en imagerie ultrasonore / Reco
Jul 30 – Jul 31 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Creatis https://www.creatis.insa-lyon.fr/
Durée : 3 ans
Contact : fabien.millioz@univ-lyon1.fr
Date limite de publication : 2021-07-30

Contexte :
L’objectif médical de ce projet est l’obtention simultanée de la dynamique de la paroi myocardique et de celle du sang pour une évaluation exhaustive de la fonction cardiaque lors d’un examen échocardiographique. En imagerie ultrasonore, les acquisitions Doppler duplex permettent effectivement de visualiser l’anatomie des tissus explorés (images B-mode) et les vitesses de déplacements (images Doppler). De ce fait, le temps d’acquisition doit être partagé entre les tirs consacrés à l’anatomie et ceux consacrés au Doppler. Ce type d’imagerie est dès lors limité en cadence d’acquisition : la réalisation d’une image duplex de qualité nécessite de l’ordre de 32 émissions pour la partie anatomique et de 32 émissions pour la partie Doppler, ce qui conduit, au mieux, à des cadences d’acquisition de l’ordre de 50 images/cycle cardiaque [1]. Cette limitation s’avère très problématique pour l’étude et le suivi de phénomènes cardiaques très rapides.
Nous avons récemment démontré qu’une approche reposant sur des réseaux convolutionnels permettait de réduire d’un ordre de grandeur les temps d’acquisition dévolus à la caractérisation des structures natomiques (B-Mode) en imagerie par ondes planes [2] ou divergentes [3].
En ce qui concerne la partie Doppler de l’acquisition, nous avons par ailleurs montré la faisabilité d’une réduction d’un facteur d’environ 2 du nombre d’émissions à partir d’approches d’échantillonnage compressé [4, 5]. Ces approches ne permettent malheureusement pas une augmentation significative de la cadence d’acquisition, du fait du faible facteur de compression et surtout parce qu’elles impliquent la résolution d’un problème inverse, qui ne permet pas d’obtenir des temps de calcul compatibles avec des acquisitions rapides.

Sujet :
Dans ce contexte, l’objectif de ce projet est de développer, mettre en œuvre et valider une approche de réseau neuronal profond (DNN) pour la reconstruction de la paroi myocardique (B-mode) et du flux sanguin (Doppler) à partir d’un très faible nombre d’émissions. Cette approche devra permettre d’obtenir des images de haute qualité tout en diminuant d’un ordre de grandeur les temps d’acquisition (cadences de plus de 500 images/s).
Un élément crucial pour l’apprentissage de tout DNN est la disponibilité de données de référence massives et fiables. Les données Doppler de référence ne peuvent pas être obtenues à partir d’acquisitions physiques. De ce fait, ces données de référence seront générées en utilisant les approches de simulation d’images ultrasonores développées à Creatis pour les structures cardiaques [6] et pour les flux sanguins [7].
Les points clés à aborder dans ce travail seront alors les suivants :
– En utilisant l’ensemble d’entraînement mentionné ci-dessus, l’adaptation du réseau convolutionnel développé à Creatis en imagerie [3] pour l’estimation du Doppler sera examinée. En particulier, les propriétés de conservation de la phase du réseau devront être quantifiées.
– À partir de ces premiers résultats, une approche DNN dynamique sera développée pour exploiter la redondance temporelle inhérente aux séquences d’images et améliorer ainsi la qualité de l’estimation ainsi
que le temps de calcul. Afin d’intégrer ces contraintes temporelles dans le processus de reconstruction, le·la doctorant·e devra examiner l’adaptation d’architectures telles que les réseaux neuronaux récurrents ou les réseaux convolutionnels temporels.
Les approches développées seront optimisées et évaluées sur la base de simulations numériques et de données expérimentales acquises in vitro sur des fantômes avec mouvement contrôlé. Une phase de validation sur des données cardiaques acquises in vivo sera réalisée en fin de thèse. Sur le plan informatique, les développements logiciels seront basés sur la bibliothèque python PyTorch.
La validation du projet sur les données acquises in vivo sera réalisée en collaboration avec un cardiologue. Les séquences ultrarapides, obtenues avec un appareil échographique de recherche Verasonics, seront évaluées chez 10 volontaires [8].

Profil du candidat :
Master en apprentissage machine ou en traitement du signal/de l’image, montrant une bonne connaissance et expérience des réseaux neuronaux profonds, ainsi que d’excellentes compétences en programmation,
entraînement et test de ces réseaux. Des connaissances préalables en imagerie ultrasonore ne sont pas un prérequis dans la mesure où le·la candidat·e sera formé·e dans ce domaine à Creatis. Une expérience et un intérêt pour l’imagerie médicale et l’imagerie ultrasonore en particulier constitueront néanmoins un atout.

Formation et compétences requises :
Apprentissage machine ou traitement du signal/de l’image
Programmation Python.

Adresse d’emploi :
Lyon
https://www.creatis.insa-lyon.fr/site7/fr/node/47072

Document attaché : 202102031543_Diffusion_Thèse_Creatis_En.pdf

Jul
31
Sat
2021
Stochastic and surrogate-assisted multi-objective optimization
Jul 31 – Aug 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : INRIA RandOpt / CNRS LIMOS / Storengy
Durée : 36 months
Contact : leriche@emse.fr
Date limite de publication : 2021-07-31

Contexte :
Optimization problems with multiple objective functions are pervasive in practice. They are also key problems at Storengy, mainly for gas storage reservoir history matching studies. 
The objective functions are typically: the bottom well pressure, the gas-water interface position in wells and the water production. The reservoir simulator can be seen as an expensive high-dimensional simulator which internal parameters need to be adapted in order to match simulator output and measured history data. Due to the number of conflicting objective functions, the solution of the problem is not unique and we need to find a set of solutions to explain the uncertainty on parameters and measurements.
Recently, it turned out that a reformulation of 2-objective optimization problems as a single-objective problem, optimizing the quality of the entire solution set evaluated so far, can be solved efficiently by single-objective solvers such as Quasi-Newton BFGS or the well-known Covariance Matrix Adaptation Evolution Strategy (CMA-ES). The usage of the latter resulted in the so-called COMO-CMA-ES. Theoretical results in combination with numerical experiments show that for two objective functions and convex quadratic objective functions, convergence towards the theoretical optimum should occur. However, the fact that objective functions can come from expensive numerical simulations reduces the amount of available function evaluations to a few hundred or thousand evaluations and might not allow a good convergence. In this budget range surrogate based algorithms such as classical trust-region methods or Bayesian optimization approaches are expected to outperform stochastic algorithms like CMA-ES. At the same time, the combination of CMA-ES with Bayesian approaches can help to investigate and manage the uncertainties present in the problems at Storengy. As importantly, the current COMO-CMA-ES does not allow to exploit highly parallel computations, another important aspect when dealing with expensive objective functions.

Sujet :
The goal of this thesis project is to extend the available COMO-CMA-ES algorithm towards expensive optimization by using surrogate models in order to save true function evaluations and manage high dimensional problems. A first approach for single-objective optimization problems, which is a portfolio algorithm combining a model-based version of CMA-ES with a classical solver such as SLSQP, has significantly reduced the amount of necessary function evaluations to reach a given target. In this thesis, we would like to follow a similar line for the multiobjective COMO-CMA-ES algorithm. The COMO-CMA-ES builds a single-objective (dynamic) objective function to be optimized to find multiple near-optimal solutions. In this context, the approach for using surrogate models to solve multiobjective problems will be to employ a single surrogate model for the single-objective function, optimized within the COMO-CMA-ES instead of previous approaches that build a surrogate model for each objective function separately, see for example. The advantage of a single surrogate is to capture in a unique model the compromise that underlies multi-objective decision problems. It furthermore reduces the internal complexity of the algorithm if only a single surrogate has to be learned. The option of a single surrogate will be compared to the more classical approach with a surrogate per optimization criterion. 

Challenges

The COMO-like aggregation of the objectives, the augmentation of CMA-ES by surrogates and the distribution of optimization algorithms are research directions with already proven benefits. The intersection of these principles raises clear hopes for further progress, but important scientific questions need to be addressed first.
Kriging is a candidate surrogate that naturally accounts for the uncertainties on the true functions. CMA-ES constructs an uncertainty model in the form of a multinormal law in the space of design variables. It is still required to properly understand the relationship between the two models from a Bayesian perspective.
Second, the single-objective reformulation within COMO-CMA-ES is a dynamically changing function and we need to address the question of how to integrate/exploit this aspect in the model building and how to combine it with a parallelized implementation.
Third, which type of surrogate model shall we use (for example a simple and quick linear/quadratic one vs. a more elaborate but also more expensive to fit model like kriging)? If we use multiple models, when shall we switch among them? From the perspective of the search space, to tackle the dimensionality issue, how can we reduce dynamically the dimension of the surrogate model?

Profil du candidat :
* Probability/statistics/operational research student, with a master degree or equivalent.
* Good mastery of the foundations of statistical learning and optimization.
* Ease in scientific programming, with a good knowledge of R, Python.

Formation et compétences requises :
Master with research thesis (M2) or equivalent (grande école d’ingénieur) with skills in mathematics (in particular optimization, statistics, machine learning) and programming.

Adresse d’emploi :
INRIA Saclay or Mines Saint-Etienne or Storengy Bois-Collombes

Document attaché : 202104231401_phd-offer-inria-mse-storengy_final2.pdf

Aug
31
Tue
2021
Développement d’outils d’analyse par apprentissage automatique pour la spectrométrie gamma dédiée à
Aug 31 – Sep 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CEA – DRT/BERTIN TECHNOLOGIES
Durée : 36 mois
Contact : jerome.bobin@cea.fr
Date limite de publication : 2021-08-31

Contexte :
L’analyse par spectrométrie gamma est une technique classique utilisée pour l’identification et la quantification de radionucléides dans une source radioactive. Le spectre mesuré est généralement constitué de pics d’absorption totale qui se superposent à un fond continu dû à la diffusion Compton dans le détecteur et son environnement. En métrologie de la radioactivité, la spectrométrie gamma est appliquée par un expert à l’aide de méthodes de déconvolution des pics d’absorption totale sans utiliser l’information donnée par le spectre entier comprenant le fond Compton. Ces techniques ne sont pas adaptées à l’identification automatique pour des mesures de terrain par des non-experts ou la détection d’anomalies dans le bruit de fond naturel à faible statistique. Des approches algorithmiques spécifiques sont donc nécessaires pour répondre à des besoins allant des mesures dans l’environnement au démantèlement des installations nucléaires ou encore pour la sécurité aux frontières contre le trafic illicite de matières nucléaires.
Le Laboratoire national Henri Becquerel (LNHB) situé au CEA/Saclay est le laboratoire national de métrologie pour le développement et le maintien des références françaises dans le domaine des rayonnements ionisants. Dans ce contexte, le laboratoire est impliqué depuis quelques années dans le développement d’un outil d’analyse automatique des spectres gamma à faible statistique selon une approche métrologique pouvant être appliqué avec des détecteurs scintillateurs (NaI(Tl), plastiques). Cette approche est fondée sur la technique du démélange spectral en utilisant l’information provenant de l’ensemble du spectre mesuré. Cette technique nécessite la construction d’une bibliothèque de spectres caractéristiques (signatures spectrales) pour chaque radionucléide à identifier. Les premiers résultats ont permis de montrer la robustesse de l’approche pour la prise de décision automatique, l’estimation des comptages des émetteurs gamma identifiés et des incertitudes associées.

Sujet :
Les méthodes actuelles utilisent des bibliothèques de signatures spectrales fixées. En conséquence, la robustesse de l’identification est en général limitée par la variabilité des conditions de mesures sur le terrain en raison de la déformation des spectres due notamment aux phénomènes d’atténuation ou de diffusion autour d’une source radioactive. Une solution à ce problème est l’estimation conjointe de la bibliothèque pour les mesures de terrain. L’objectif de la thèse sera le développement de nouvelles méthodes de démélange spectral permettant la prise en compte automatique de ces déformations de spectres. Dans un premier temps, une solution mathématique optimale sera développée grâce à la mise en œuvre de techniques d’apprentissage automatique pour l’estimation conjointe de la bibliothèque de signatures spectrales. Dans un second temps, cette solution sera adaptée de façon à être implémentable dans un circuit numérique intégré dans un dispositif de détection portable. Le futur thésard sera également associé à l’élaboration de la bibliothèque de signatures spectrales par simulation interactions rayonnement-matière (Geant4, Penelope, MCNP) pour l’apprentissage de l’algorithme de démélange spectral.
Le développement algorithmique se fera en collaboration avec le Laboratoire d’ingénierie logicielle pour les applications scientifiques (LILAS) au sein du CEA/DRF. L’implémentation spécifique de l’algorithme dans un dispositif portable de spectrométrie gamma sera effectuée dans le cadre du laboratoire commun avec la société industrielle BERTIN Technologies.

Profil du candidat :
Le candidat (titulaire d’un Master recherche ou d’un diplôme d’ingénieur) devra avoir des compétences en traitement du signal (problème inverse, estimation, statistiques) et en apprentissage automatique. Au cours de la thèse, il aura à intégrer les problématiques classiques de la spectrométrie gamma et de la simulation interactions rayonnement-matière à l’aide de codes Monte-Carlo.

Formation et compétences requises :
Mathématiques appliquées/traitement du signal

Adresse d’emploi :
CEA Saclay – 91191 Gif-sur-Yvette

Document attaché : 202106211641_Thèse_CEA_Bertin_CB29032021A.pdf

Thèse CIFRE – Connaissances formelles et apprentissage automatisé, avec Courbon Software
Aug 31 – Sep 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Courbon Software et LIMOS/Mines St-Étienne
Durée : 3 ans
Contact : audrey.bruyere@vinci-energies.com
Date limite de publication : 2021-08-31

Contexte :
(English description in .pdf attachment)

La thèse proposée s’inscrit dans le contexte de l’Industrie du futur (ou Industrie 4.0), vouée à être plus flexible et plus autonome grâce aux technologies du numérique et de la mégadonnée (Big Data).

L’entreprise Courbon Software, qui édite des logiciels pour l’informatique idustrielle, dispose aujourd’hui d’une quantité importante de données issues d’activités industrielles qu’elle souhaite valoriser en proposant de nouveaux services à ses clients. Ces nouveaux services, incluant maintenance prédictive (permettant de prévoir une casse et y remédier avant qu’elle survienne) et optimisation de l’ordonnancement de tâches (par exemple, vis-à-vis d’une offre fluctuante de la part des fournisseurs d’électricité), passent principalement par l’application de techniques connues d’apprentissage automatisé et, principalement, d’apprentissage profond (deep learning).

L’application de deep learning à des données industrielles pose cependant quelques problèmes auxquels la recherche en informatique doit répondre. En particulier, la diversité des sources de données disponibles en production (données numériques, topologiques, temporelles, structurées, …) implique un important travail de pré-traitement qui réduit d’autant la fiabilité des modèles obtenus par rapport à des évaluations sur des données-tests. Or, la fiabilité est une nécessité pour un système industriel. Par ailleurs, les modèles obtenus avec de l’apprentissage profond sont difficilement interprétables, notamment d’un point de la responsabilité légale (pour établir qui de l’éditeur de logiciel ou de l’entreprise ayant fourni les données est responsable) lorsqu’un dysfonctionnement est observé sur une ligne de production.

Voir par exemple : Gusmeroli S., Dalle Carbonare D. (eds) (2020). Big Data challenges in Smart Manufacturing Industry (v. 2020). Brussels. BDVA.

Sujet :
L’approche proposée dans la thèse est d’intégrer des connaissances formelles à des techniques d’apprentissage profond sur des données industrielles. Les connaissances formelles peuvent être représentées sous formes de formules logiques, de données relationnelles ou, plus communément, de graphes de connaissances, à l’instar du Google Knowledge Graph ou de Wikidata. Elles permettent à la fois d’intégrer dans une même base de connaissances des sources hétérogènes de données et de fournir un cadre d'”explicabilité” à des algorithmes d’apprentissage.

Les travaux effectués durant la thèse seront basés sur les progrès récents dans l’apprentissage non-supervisé appliqué aux graphes de connaissances, comme ceux d’Antoine Bordes (aujourd’hui à Facebook AI) et de Pascal Hitlzer. Ils auront pour objectif la spécification d’une méthode pour intégrer des connaissances formelles génériques à des tâches d’apprentissage distinctes telles que la détection de rebuts et l’estimation d’indicateurs de performances dans l’ordonnancement de tâches.

Les thèmes abordés durant la thèse seront les suivants (liste non-exhaustive) :
– Intégration sémantique de données (RDF, SPARQL, OWL)
– Apprentissage profond (PyTorch, TensorFlow)
– Modèles de connaissances pour l’industrie (OPC-UA, AutomationML)

Voir par exemple :
[1] Bordes A., Usunier N., Garcia-Duran A., Weston J., Yakhnenko O. (2013). “Translating Embeddings for Modeling Multi-relational Data,” Neural Information Processing Systems (NIPS). South Lake Tahoe, United States.
[2] Hitzler P., Bianchi F., Ebrahimia M., Sarker M.K. (2020). “Neural-Symbolic Integration and the Semantic Web,” Semantic
Web, vol. 11, no. 1, pp. 3-11. IOS Press.

Profil du candidat :
Titulaire d’un master en informatique ou sciences des données.

Formation et compétences requises :
– Master en informatique ou science des données
– Anglais courant lu
– Connaissances solides en gestion de bases de données et données massives (SQL, NoSQL, Hadoop, …)
– Connaissances solides en programmation dans un langage haut-niveau (Python, Java, JavaScript, …)

Adresse d’emploi :
Saint-Étienne

Document attaché : 202106211428_Offer – PhD student – CSO.pdf

Sep
1
Wed
2021
Combinaison de méthodes de commande optimale et d’intelligence artificielle pour le contrôle d’un vé
Sep 1 – Sep 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Université de Toulouse
Durée : 3 ans
Contact : sophie.jan@math.univ-toulouse.fr
Date limite de publication : 2021-09-01

Contexte :
Intelligence Artificielle – Véhicule Hybride

Sujet :
La société Vitesco travaille depuis de nombreuses années sur le développement de véhicules hybrides, qui apparaissent comme une des solutions pour réduire la consommation d’énergie fossile et donc les émissions locales de CO2 liées au transport. L’expansion rapide des technologies permettant une connectivité accrue du véhicule à son environnement associée aux capacités de calcul sans cesse croissantes des ordinateurs permet aujourd’hui d’envisager de réaliser à bord et en temps réel une optimisation de la répartition de puissance entre moteur électrique et thermique, de la gestion de l’état de charge de la batterie ou encore de la température des circuits de refroidissement.
Plusieurs approches orientées programmation dynamique ou encore basées sur le principe du Maximum de Pontryagin ont déjà été explorées par Vitesco pour résoudre certains aspects de ces problèmes complexes de contrôle optimal. Cependant, les exigences environnementales rendent aujourd’hui nécessaire de traiter ces problèmes dans leur globalité en considérant dans leur ensemble les sous-systèmes constitutifs du véhicule ainsi que leurs interactions mutuelles, faisant intervenir des phénomènes physiques de nature différente, mécanique, électrique, thermique ou encore chimique.
Par ailleurs, de nombreuses sources d’incertitude sont à prendre en considération, et en particulier le comportement du conducteur.
Le travail de thèse consistera à identifier précisément ce problème global de l’optimisation d’un véhicule hybride du point de vue de critères environnementaux et d’en proposer une méthode de résolution suffisamment robuste et qui soit compatible avec les exigences de temps de calcul liées aux capacités des calculateurs embarqués. Pour cela, associées aux méthodes de contrôle optimal,
les techniques d’intelligence artificielle devraient permettre de réduire certaines incertitudes en améliorant les prédictions servant de base à l’optimisation, de renforcer les modèles déterministes
représentant le comportement des différents sous-systèmes du véhicule ou encore d’adapter de
manière dynamique les critères à optimiser. C’est cet accroissement des capacités des techniques
de contrôle optimal par l’introduction de l’intelligence artificielle qui constitue l’objectif global de
cette thèse.

Profil du candidat :
Master en mathématiques appliquées ou équivalent

Formation et compétences requises :
Forte connaissance des techniques de commande optimale,
des bases solides en intelligence artificielle.

Adresse d’emploi :
Université de Toulouse

Document attaché : 202105211452_Proposition_Thèse.pdf

Sep
3
Fri
2021
Deep Learning for modelling of physical systems
Sep 3 – Sep 4 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : LAMSADE
Durée : 3 years
Contact : alexandre.allauzen@dauphine.psl.eu
Date limite de publication : 2021-09-03

Contexte :
We invite applications for a fully-funded PhD position on the topic of
“Deep Learning for physical systems modelling”.

This is a 3-year position funded by the ANR project SPEED and it will
start next fall (as soon as possible). The whole project is a
collaboration between the IJLRA, the LAMSADE and the new LISN labs.
Frequent scientific discussions and meetings are planed with many
students working in this project.

The interaction between machine learning and Physics has recently
emerged as a new and important research area. Some illustrations are
simulations of complex physical systems with machine learning models,
or at the opposite, the introduction of numerical methods in machine
learning.

Sujet :
At the interfaces of AI and Physics, different tracks can be
explored depending on the skills of the candidate:

– Noisy, scarce and partial observations of physical systems.
– Training algorithm to enforce physical properties.
– Interaction between the machine learning model and the physical
systems
– Dealing with chaoticity

The algorithm developments should be assessed in interesting physical
situations. The accent is put here on chaotic dynamical systems as a
paradigm of complex systems. In particular, leaving aside the pure
data-driven approach, it would be important to find out whether a
physical-informed approach can overcome some of the challenges raised
by a blind use of machine-learning.

Profil du candidat :
– Outstanding master’s degree (or an equivalent university degree) in
computer science or Physics and other related disciplines (as e.g. mathematics, information sciences, computer engineering, etc.).
– Proficiency in machine learning and data analysis

Formation et compétences requises :
– Fluency in spoken and written English is required.
– The knowledge of python and pytorch is welcome

Adresse d’emploi :
Dauphine Université

Stability of Transformers for computer vision applications
Sep 3 – Sep 4 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LAMSADE
Durée : 3 years
Contact : alexandre.allauzen@dauphine.psl.eu
Date limite de publication : 2021-09-03

Contexte :
This is a 3-year PhD position, funded by Foxstream, a software company
(since 2004), specialized in real-time automated processing of video
content analysis. The PhD thesis is a collaboration with Dauphine
Université (the MILES team of the LAMSADE) with a join supervision
(Quentin Barthélemy from Foxstream and Alexandre Allauzen from MILES).
The PhD student will be located at Paris-Dauphine University in close
relationships with Foxstream.

Sujet :
For a couple of decades, Deep Learning (DL) added a huge boost to the
already rapidly developing field of computer vision. While for some
kind of data and tasks, DL is the most successful approach, this is
not the case for all applications. For instance, the analysis of video
streams generated by thermal cameras is still a research challenge
because of the long range perimeter, the depth of focus and the
associated geometrical issues, along with the frequent calibration
change. Therefore, the stability and robustness of DL models must be
better characterized and improved.

Very recently, Transformer architectures have achieved state of the
art performances in many domains: from natural language processing to
computer vision. In this thesis we will explore the use of Tranformers
for videos generated by thermal cameras and their properties.

From a theoritical and application perspectives, the goals are to
explore the stability of such architectures, the robustness against
adversarial examples, and what kind of invariances and symetries can
be captured.

Profil du candidat :
– Outstanding master’s degree (or an equivalent university degree) in
computer science or another related disciplines (as e.g. mathematics,
information sciences, computer engineering, etc.).
– Proficiency in machine learning, computer vision, or signal
processing.
– Fluency in spoken and written English is required.

Formation et compétences requises :
Application:
To apply, please email alexandre.allauzen [at] dauphine.psl.eu with:
– a curriculum vitae, with contact of 2 or more referees
– a cover letter
– a research outcome (e.g. master thesis and/or published papers) of
the candidate
– a transcript of grades

Adresse d’emploi :
Université Paris Dauphine

Sep
15
Wed
2021
Multiparadigm interactive collaborative learning for heterogeneous remote sensing time series analys
Sep 15 – Sep 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Mathématiques et Informatique Appliquées – UMR 518
Durée : 3 ans
Contact : antoine.cornuejols@agroparistech.fr
Date limite de publication : 2021-09-15

Contexte :
Analysing heterogeneous remote sensing time series using supervised methods requires that the classes sought are perfectly known and defined and that the expert is able to provide a sufficient learning data set both in number and quality. Faced with the difficulty of obtaining sufficient examples within the context of the analysis of time series of remote sensing images, we propose to develop an innovative method of interactive multi-paradigm collaborative learning. The aim is to enable the expert to add “on the fly” information (labels, constraints, etc.) used to guide the learning process in order to produce clusters and models closer to the expert’s “intuitions”, i.e. potential thematic classes. To do this, the expert will be actively assisted by the system, which will for example offer advice or proposals for new constraints or labelling of objects. We will validate our work in several fields of application chosen in agreement with partners of the HERELLES project.

Sujet :
With the launch and entry into production of the European satellites in the Sentinel or Franco-Israeli constellation Venųs, satellite data are now arriving in massive, almost continuous flows. This massive influx of temporal data should lead to major advances in various Earth and environmental science disciplines for the study and modelling of complex phenomena (agricultural or urban dynamics, deforestation, anthropogenic actions on biodiversity, etc.). However, faced with this overabundance of temporal data, arriving almost continuously, the labelling phase of supervised learning can no longer be carried out by experts, as it is too tedious and time-consuming. Moreover, the supervised learning methods classically used in Earth observation assume that the learning data sufficiently and completely describe the classes to which they are attached. In other words, these methods require that the desired classes are well known and defined and that the expert is able to provide a sufficient set of learning data both in number and quality. In the case of temporal analysis in remote sensing, this assumption is no longer realistic. Indeed, the technological revolution of high-frequency image acquisition is still too recent for thematic knowledge to have adapted. Thus, there are currently no typologies (or nomenclatures) of changes that can really be used for this type of supervised analysis and therefore no associated quality learning data.
To compensate for this lack of formalization and examples, the expert must be able to rely on other types of information such as partially labelled data, formalized knowledge, constraints on data or results. At the same time, there are also numerous methods capable of analyzing this data. Combining these data and methods seems indispensable. Thus, approaches such as boosting, clustering or collaborative clustering take advantage of the complementarity between different methods, each with its own biases and its own analysis strategy but capable of processing its own data in a privileged way.
However, with the increase in the volume of data and the number of potential evolution classes, the highlighting and formalization of information that is really relevant for classification methods in the context of temporal analysis appears to be more difficult than expected and potentially time-consuming. The objective of this project, in strong link with the ANR HIATUS and HERELLES projects, is to define and validate in the context of high acquisition frequency remote sensing, an innovative method of interactive collaborative learning. The aim is to enable the expert to add “on the fly” information (labels, classes, constraints, etc.) that can be used to guide the learning process in order to produce clusters and models that are closer to the expert’s “intuition”, i.e. potential thematic classes . To do this, the expert will be actively assisted by the system, which will offer advice or proposals for new constraints or object labelling, for example.

Profil du candidat :
Master’s Degree in Computer Science or equivalent.

Formation et compétences requises :
The candidate must have good skills in data analysis and more particularly in supervised or unsupervised classification of time series. Skills in remote sensing image analysis is required. Good knowledge of English (French is not mandatory)

Adresse d’emploi :
Paris Campus Saclay

Document attaché : 202107060833_Sujet_HERELLES_2021.pdf

Sep
30
Thu
2021
Brain vascular network segmentation and modeling from MRA images
Sep 30 – Oct 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CREATIS (Lyon)
Durée : 36 mois
Contact : odyssee.merveille@creatis.insa-lyon.fr
Date limite de publication : 2021-09-30

Contexte :
Ischemic stroke (the blockage of an artery that supplies blood to the brain) is a major cause of disability and death worldwide [6]. Recently, Endovascular Thrombectomy (EVT) has been proved very effective to treat ischemic stroke, which has led to its widespread adoption in clinical routine. EVT consists of the mechanical removal of the blood clot under image guidance. This interventional gesture is very difficult and it is estimated that around 50% of EVT have a suboptimal outcome. The World Federation of Interventional and Therapeutic Neuroradiology recently recommended that simulation be integrated in this curriculum, with the “ultimate goal of improving skills and reducing complications during patient management” [9].
The PreSPIN ANR project aims at designing a simulator of the EVT intervention to help surgeons to train and plan for this difficult intervention (see Figure 1). To do so, geometrically accurate models of the brain vascular network of patients suffering from ischemic stroke are required.
In this context, the subject of this PhD thesis is to develop solutions for segmenting and modeling the brain vascular network from Magnetic Resonance Angiography (MRA) images.

Sujet :
The goal of this thesis is to build geometrically and topologically accurate models of the brain vascular networks from MRA images. The main challenges will consist of designing robust methods, able to generate continuous vascular models of sufficient precision from millimetric-resolution data often corrupted by a low signal-to-noise ratio and physiological artifacts.
The 3D vascular model should consist of a 1D model with correct topology of the vascular structures (namely the centrelines of the vascular network) associated with a 3D smooth surface of the vessels.
Several strategies may be investigated depending on the candidate interest combining classic and deep-learning strategies.
Regarding the complexity of the problem, prior knowledge will have to be modeled to compensate the insufficient information carried by the image signal. Prior information on the vessels rely in particular on connectedness hypotheses and differential properties (orientation, curvature, tortuosity, etc.) that may be obtained from further data analysis, or by (multi-)atlas knowledge [8] from annotated datasets. These priors could be integrated in vessel segmentation based on variational paradigms [5] as regularization terms or could be integrated in deep-learning frameworks [11] such as topological loss [3,2], shape constraints [7] or multiscale architectures [4].
Centrerlines extraction could be develop from the fuzzy segmentation map using discrete geometry concepts such as critical kernel [1] or be directly extracted by end-to-end learning strategies [10].
Finally, 2D closed curve models, fitting the vessel border in each cross section along the centrelines, would be extracted to build the 3D continuous model.
A particular attention will be paid to the modeling of bifurcations that are crucial in simulations yet often forgotten in most segmentations and models of vascular networks.

Profil du candidat :
The candidate should have an academic background in image processing or medical imaging. He/she should have at least one previous experience (internship, project) in medical image processing.

Formation et compétences requises :
The candidate should have good technical skills in Python programming and optionally in Pytorch or TensorFlow. He/she should be able to work on Linux computers and on remote clusters.
The candidate will work inside the PreSPIN consortium and in close collaboration with multidisciplinary experts. He/she should be able to communicate on his/her work clearly with experts and non-experts of his/her field.

Adresse d’emploi :
Lyon

Integrating Deep Learning and Physics for Modeling Complex Dynamics, Applications to Climate Science
Sep 30 – Oct 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire d’Informatique de Paris 6
Durée : 36 mois
Contact : patrick.gallinari@sorbonne-universite.fr
Date limite de publication : 2021-09-30

Contexte :
Deep Learning has found important success in many application fields. It is beginning to be explored for scientific computing in domains traditionally dominated by physics models (first principles) like earth science, climate science, biological science, etc. It is particularly promising in problems involving processes that are not completely understood, or computationally too complex to solve by running the physics inspired model. However, the application of state of the art DNN models often meets limited success in scientific applications. This is due to different factors: the complexity of the underlying physical phenomenon, the large data requirement of deep neural networks (DNNs), their inability to produce physically consistent results. The research community has started to explore how to integrate physics knowledge and data, a challenging direction. We consider here the modeling of complex dynamical systems characterizing natural phenomena with a focus on climate modeling applications, and with the objective of combining model based physics (MB) and machine learning (ML) approaches.

Sujet :
Research directions

Combining Physics and Deep Learning

The integration of physics background and ML has recently motivated the interest of several communities (Willard 2020). This issue may been explored from different perspectives. We will focus here on the modeling of spatio-temporal dynamics such as those underlying earth science and climate observations. The classical modeling tools for such dynamics in physics and applied mathematics rely on partial differential equations (PDE). We then consider situations where the physical prior background is provided by PDEs. We are interested in solving two different problems. A first problem corresponds to the situation where the PDEs are too complex to run a full simulation and ones wants to reduce the simulation cost. A possible strategy here is to run a simulation at a coarse precision and use ML for complementing the physical simulation and reach high fidelity prediction. The second problem corresponds to the case where the PDE only provides partial information about the underlying physical phenomena and this physical knowledge it is to be complemented with ML by extracting the complementary information from data. Although they correspond to different objectives, the two problems share many similarities from a ML point of view. Initial attempts to solve similar problems can be found in recent work such as (de Bezenac 2018, Harlim 2020, Yin 2021). This will be further developed during the PhD project with the objective of analyzing and developing different integration frameworks.

Learning at Multiple Scales

Modeling dynamical physical processes often requires solving PDEs at different spatio-temporal scales. For example in climate, global phenomena are influenced by dynamics operating at a smaller scale. Global simulation models could not be run, due to their complexity, at fine discretization levels. This problem is known as “downscaling” and DNNs could help improve this multiscale problem. Similar problems occur e.g. in computational fluid dynamics. Learning at different scales is an open issue in ML. Most current DNN deployments for learning dynamics operate at a fixed spatio-temporal discretization. Recent advances (Sitzman 2020, Li 2021) allow us learning a function space instead of discrete flows and open the possibility for generalizing at different spatio-temporal resolutions. This will be used as starting point for learning at different scales with DNNs.

Uncertainty Quantification

Uncertainty quantification is of great importance in climate modeling. This requires characterizing the distribution p(y|x) where y is the response and x the covariates of interest. Since Monte Carlo simulations are unfeasible for such applications, physics has developed solutions such as reduced order models for modeling uncertainty while ML often relies on Gaussian Processes for quantifying uncertainty in physical processes. However none of these approaches scales well to high dimensions. We will explore recent developments based on Neural Processes (Garnelo 2018, Norcliffe 2021) for modeling uncertainty.

References

Ayed, I., de Bezenac, Emmanuel , Pajot, A., Brajard, J. and Gallinari, P. 2019. Learning the hidden dynamics of ocean temperature with Neural Networks. Climate Informatics (2019).
de Bezenac, E., Pajot, A. and Gallinari, P. 2018. Deep Learning For Physical Processes: Incorporating Prior Scientific Knowledge. ICLR (2018).
Garnelo, M., Rosenbaum, D., Maddison, C.J., Ramalho, T., Saxton, D., Shanahan, M., Teh, Y.W., Rezende, D.J. and Ali Eslami, S.M. 2018. Conditional neural processes. ICML (2018), 1704–1713.
Harlim, J., Jiang, S.W., Liang, S. and Yang, H. 2021. Machine learning for prediction with missing dynamics. Journal of Computational Physics. 428, (2021), 109922.
Li, Z., Kovachki, N., Azizzadenesheli, K., Liu, B., Bhattacharya, K., Stuart, A. and Anandkumar, A. Fourier Neural Operator for Parametric Partial Differential Equations. ICLR (2021), 1–16.
Norcliffe, A., Cristian, B., Day, B., Moss, J. and Liò, P. 2021. Neural ODE Processes. ICLR (2021), 1–14.
Sitzmann, V., Martel, J.N.P., Bergman, A.W., Lindell, D.B., Wetzstein, G. and University, S. 2020. Implicit Neural Representations with Periodic Activation Functions. Neurips (2020).
Willard, J.D., Jia, X., Xu, S., Steinbach, M. and Kumar, V. 2020. Integrating physics-based modeling with machine learning: A survey. arXiv (2020), 1–34.
Yin, Y., Le Guen, V., Dona, J., de Bezenac, E., Ayed, I., Thome, N. and Gallinari, P. 2021. Augmenting Physical Models with Deep Networks for Complex Dynamics Forecasting. ICLR (2021).

Profil du candidat :
Master in computer science or applied mathematics, Engineering school.

Formation et compétences requises :
Strong background and experience in machine learning and good technical skills in programming.

Adresse d’emploi :
Sorbonne Université, Pierre et Marie Curie Campus, 4 Place Jussieu, Paris, Fr

Document attaché : 202105061626_Integrating Deep Learning and Physics for Modeling Complex Dynamics, Applications to Climate Science.pdf

KidGait : Apprentissage pour la modélisation de la marche chez l’enfant
Sep 30 – Oct 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IMT Atlantique
Durée : 36 mois
Contact : francois.rousseau@imt-atlantique.fr
Date limite de publication : 2021-09-30

Contexte :
Lab

La recherche à l’IMT Atlantique concerne près de 800 personnes, dont 290 enseignants et chercheurs et 300 doctorants, et porte sur les technologies numériques, l’énergie et l’environnement. Il couvre toutes les disciplines (des sciences physiques aux sciences humaines et sociales en passant par celles de l’information et du savoir) et couvre tous les domaines des sciences et des technologies de l’information et de la communication.

La thèse se déroulera au laboratoire LaTIM (INSERM U1101), sur le campus de Brest, sous la direction de François Rousseau et Sylvain Brochard, encadrée par Mathieu Lempereur.

Date de début : Octobre 2021
Financement : IMT Atlantique – ANR Chaire IA

Sujet :
Description

Les troubles musculo-squelettiques ont un impact important sur la qualité de vie ainsi que sur les coûts de santé. Un diagnostic clinique précis et un traitement spécifique au patient sont les domaines clés qui jouent un grand rôle dans la prise en charge des troubles musculo-squelettiques. Dans le contexte de la paralysie cérébrale, il est nécessaire d’évaluer en permanence l’état clinique de l’enfant, les objectifs du traitement et la planification des futurs traitements. L’outil d’évaluation le plus courant est l’examen clinique de l’enfant, qui évalue la mobilité articulaire, le tonus, la spasticité, la force musculaire et le degré de contrôle sélectif des muscles. L’analyse clinique de la marche permet d’étudier cette nature dynamique de la paralysie cérébrale et est généralement acceptée pour soutenir la décision de traitement clinique des patients. L’analyse de la marche clinique est un outil bien établi pour l’évaluation quantitative des troubles de la marche, permettant un diagnostic fonctionnel, une évaluation pour la planification du traitement et le suivi de l’évolution de la maladie. L’objectif le plus important de l’analyse de la marche en 3D chez les enfants atteints de paralysie cérébrale est d’évaluer la gravité, l’étendue et la nature des déficits fonctionnels afin de soutenir la prise de décision thérapeutique.

Ce travail de thèse s’intéressera au développement de méthodes axées sur les données pour combiner les données dynamiques de l’IRM [1] avec les données des capteurs externes pour un modèle anatomique pertinent spécifique au patient pendant la marche. L’objectif ici est d’utiliser des données in-vivo spécifiques au patient et d’éviter ainsi l’utilisation de modèles statistiques, afin d’obtenir des représentations réalistes des comportements de marche des patients atteints de paralysie. La première étape consistera à apprendre un ensemble de mouvements réalistes à partir des données IRM dynamiques in-vivo. Sur la base du cadre log-Euclidien utilisé dans notre étude précédente [2] et de l’ensemble des structures segmentées d’intérêt, nous prévoyons de générer un ensemble de données spécifiques au patient pour apprendre le lien entre une image IRM et la forme de la surface externe du corps. Il s’agira d’étendre nos travaux précédents sur les réseaux génératifs pour la super-résolution afin de relier les images IRM et le nuage de points de la surface du corps. Ensuite, la deuxième étape se concentrera sur l’enregistrement de la surface corporelle estimée à partir des capteurs de mouvement externes pendant la marche avec les données IRM anatomiques (et plus particulièrement une segmentation de la surface corporelle externe). À cette fin, nous nous appuierons sur l’étape d’apprentissage précédente pour générer des images IRM spécifiques au patient à partir d’un ensemble de points fournis par les capteurs externes. Nous étudierons également l’utilisation de la régularisation temporelle dans une formulation de minimisation de l’énergie pour estimer des séquences temporelles lisses de données anatomiques IRM à partir d’une séquence de nuages de points. L’approche proposée conduira à l’estimation de données IRM dynamiques temporelles haute résolution d’un enfant qui marche, montrant les articulations en mouvement et les caractéristiques biomécaniques en temps réel.

Ces travaux s’inscrivent dans le cadre d’étude du laboratoire sur l’analyse de la marche chez l’enfant afin de développer des méthodes d’analyse de données facilitant le diagnostic médical et quantifiant l’évolution du suivi thérapeutique permettant un choix optimal de celui-ci. Elle sera réalisée en collaboration rapprochée avec le service de radiologie et les cliniciens du service de rééducation fonctionnelle du CHU de Brest, par le biais notamment de la co-direction avec Sylvain Brochard (PUPH) et l’encadrement de Mathieu Lempereur (IR).

Profil du candidat :
Profil : Traitement du signal et des images et/ou mathématiques appliquées

Formation et compétences requises :

Compétences requises : apprentissage (machine learning, deep learning), traitement du signal ou d’image, programmation (Python).

Adresse d’emploi :
IMT Atlantique, Brest, France

Document attaché : 202108090842_2021-AI4Child-Sujet_These_GAIT_french.pdf

Thèse CIFRE en Statistiques/ apprentissage.
Sep 30 – Oct 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Institut de Mathématiques de Marseille
Durée : 36 mois
Contact : badihghattas@gmail.com
Date limite de publication : 2021-09-30

Contexte :
The Aircraft Troubleshooting Function is integrated transversally in each interconnected on board avionic unit as well as on ground stations of Airbus helicopters. Its main objective is to provide to the maintenance operators all information required to remove any detected failure with the best effectiveness. The function is made of successive algorithms computing the raw data recorded on board to provide to the maintenance operators for each detected failure, whether it requests a maintenance task, the corresponding diagnosis and the best troubleshooting procedure to be followed in order to remove the failure.

Sujet :
See attached document

Profil du candidat :
Master 2 de mathématiques (statistiques) ou apprentissage, ou école d’ingénieur avec spécialité statistique/ apprentissage.
De bonnes compétences en apprentissage statistique et programmation python (et accessoirement R) sont exigées.
Bons résultats scolaires exigés pour cette thèse CIFRE.

Formation et compétences requises :
Master mathématiques statistiques ou école d’ingénieur avec spécialité en statistiques.

Adresse d’emploi :
Marseille Luminy (Institut de Mathématiques de Marseille) et AIrbus (Marignane).

Document attaché : 202108281813_Thesis Project-reduced.pdf

Oct
1
Fri
2021
Perception of multi-scale synchronization during movement and music
Oct 1 – Oct 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Euromov D.H.M
Durée : 3 years
Contact : patrice.guyot@mines-ales.fr
Date limite de publication : 2021-10-01

Contexte :
A 3-year fully funded PhD scholarship is proposed by the PhD school (ED I2S) in Alès / Montpellier under the supervision of Patrice Guyot (PhD, sound analysis), Pierre Slangen (Pr, motion capture) and Benoît Bardy (Pr, embodied cognition).
The successful applicant will become part of a dynamic research environment within the newly multidisciplinary joint research center EUROMOV Digital Health in Motion (landing theme: Perception in Action & Synchronization – PIAS).

See this offer on the Euromov D.H.M website:
https://dhm.euromov.eu/wp-content/uploads/2021/06/Ph.D_MovementMusicSync.pdf

As a PhD student, you will be responsible for:
– Independently carrying out research and completing a PhD dissertation within three years,
– Recruiting participants and organize experiments in our labs,
– Collecting and synthesizing motion data and music,
– Developing algorithms and methods to analyze motion and music data,
– Reporting the results in international peer-reviewed scientific journals and conferences.

Start date: October 1st, 2021 (to September 2024).
Net remuneration around 1400€ monthly (including social security and health benefits).

Sujet :
Synchronized group activities, such as dancing, singing or certain sports, strengthen human attachment and improve individual well-being [Lau16]. In a physical activity such as tai chi chuan, synchronization within the group is based on the a priori knowledge of individuals and their perception of movements of other participants. In the context of a fitness or capoeira class, synchronization is also based on the common perception of the rhythms of the music.

In general, synchronies between individuals are based on predictive abilities that are fed by visual and auditory perception [Bar20, Tra18]. However, the way in which sound and visual information interacts in the perception and production of synchronization, intentional or spontaneous, is still poorly understood [Ips17].

The ability to synchronize movements and music is primarily analyzed through very simple tasks such as tapping. In more complex situations, such as walking, synchronization can be analyzed through the impact of the steps, and their correspondence with the strong beats of the piece [Dec18]. However, human movements, similarly to music, are composed of cycles at multiple levels, presenting complex rhythmic relationships (expiration and foot impact for running) or hierarchical structures (binary or ternary alternation of strong and weak beats for music).

Beyond classical approaches to detect simple cycles such as the downbeats of pieces (e.g., with neural networks [Jia19]), recent work on automatic analysis converges toward multi-scale modeling of musical content. In this context, conditional random fields have been proposed for leveraging multi-scale information for computational rhythm analysis [Fue19].

In the context of sports practice, coaches are required to perceive these complex multi-scale synchronization patterns. Research has shown that humans synchronize better through auditory or multimodal stimuli than through visual-only stimuli [El10]. These results can be exploited within the framework of synchronization perception to produce visualization and sonification tools. These tools could facilitate the task of the coach when practicing online sport, by enhancing group synchronization for instance, and by allowing rapid identification of people in difficulty in order to offer individualized coaching. Applied to motion capture data, they could also be used in a medical setting to illustrate stability loss in movement polyrhythms.

In this thesis, we propose to analyze multi-scale synchronization patterns between individual movements, group movements, and musical rhythms. We will produce data from motion capture of individuals and groups in the laboratory as well as in more natural settings, and sound synthesis of multi-scale rhythmic content. This data will be analyzed using different approaches from Artificial Intelligence, including neural networks and probabilistic graphical models. Experiments will also be carried out on the perception of synchronization via the representation and / or sonication of the results of these analyzes, with the aim of developing computer bricks facilitating human evaluation of synchronization.

A better understanding of synchronization mechanisms, and their inclusion in IT, may improve collaborative virtual as well as rehabilitation of patients with social disorders [Slo17] or Parkinson’s disease [Dec18].

References

– [Lau16] Launay, Jacques, Bronwyn Tarr, and Robin IM Dunbar. “Synchrony as an adaptive mechanism for large‐scale human social bonding.” Ethology 122.10 (2016): 779-789.
– [Bar20] Bardy, Benoît G., et al. “Moving in unison after perceptual interruption.” Scientific reports 10.1 (2020): 1-13.
– [Tra18] Tranchant, Pauline. “Synchronisation rythmique déficiente chez l’humain: bases comportementales.” Diss. Université de Montréal (2018).
– [Ips17] Ipser, Alberta, et al. “Sight and sound persistently out of synch: stable individual differences in audiovisual synchronisation revealed by implicit measures of lip-voice integration.” Scientific Reports 7.1 (2017): 1-12.
– [Dec18] De Cock, V. Cochen, et al. “Rhythmic abilities and musical training in Parkinson’s disease: do they help?.” NPJ Parkinson’s disease 4.1 (2018): 1-8.
– [Jia19] Jia, Bijue, Jiancheng Lv, and Dayiheng Liu. “Deep learning-based automatic downbeat tracking: a brief review.” Multimedia Systems 25.6 (2019): 617-638.
– [Fue19] Fuentes, Magdalena. “Multi-scale computational rhythm analysis: a framework for sections, downbeats, beats, and microtiming”. Diss. Université Paris-Saclay, 2019.
– [Chu16] Chung, Junyoung, Sungjin Ahn, and Yoshua Bengio. “Hierarchical multiscale recurrent neural networks.” arXiv preprint arXiv:1609.01704 (2016).
– [Tav19] Tavanaei, Amirhossein, et al. “Deep learning in spiking neural networks.” Neural Networks 111 (2019): 47-63.
– [El10] Elliott, Mark T., Alan M. Wing, and Andrew E. Welchman. “Multisensory cues improve sensorimotor synchronisation.” European Journal of Neuroscience 31.10 (2010): 1828-1835.
– [Slo17] Słowiński, Piotr, et al. “Unravelling socio-motor biomarkers in schizophrenia.” npj Schizophrenia 3.1 (2017): 1-10.

Profil du candidat :
Applicants should have (or anticipate having) a MSc and research background related to computer science, audio/signal processing, or computational movement science. Knowledge in music (theoretical and practical) will be valued. French is not mandatory, but the candidate must be willing to learn French during their PhD and they must be able to communicate in English.

Applications should include a cover letter discussing your interest in the position, detailed CV, academic results (evaluation, average and ranking of the candidate during the initial course and Msc) and two reference letters. Deadline is July 5, 2021. Interviews will be conducted via zoom on Tuesday, July 13 and Thursday, July 15.

Formation et compétences requises :
Applicants should have (or anticipate having) a MSc and research background related to computer science, audio/signal processing, or computational movement science.

Adresse d’emploi :
Euromov D.H.M
IMT Mines Ales / Univ. of Montpellier

Document attaché : 202106221434_Ph.D_MovementMusicSync.pdf

Study of interactions between IA systems in cybersecurity using game theory
Oct 1 – Oct 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRISA / IMT Atlantique
Durée : 36
Contact : yann.busnel@imt-atlantique.fr
Date limite de publication : 2021-10-01

Contexte :
In our increasingly-connected world, the design as well as the prevention of cyberattacks can make use of more and more resources—human, financial, and technological. Cybersecurity has indeed turned into a race to exploit on one side, and to stop on the other side, the unavoidable security breaches that come with the complexity of existing and upcoming systems and services.
It is therefore natural that each actor seeks to use the most powerful tools available, that include Artificial Intelligence (IA) methods, to build complex attack (e.g., silent intrusion in the target system with parsimonious data extraction) and defense (e.g., control measures) strategies.

Sujet :
The goal of this thesis is to study the possible outcomes from such interactions, where each player—attacker and defender—employs AI methods to adapt their strategy to their opponent’s. For that purpose, we intend to apply the framework and tools from game theory, through mathematical models of the situation (strategy definition, utility functions, knowledge state) for which we will look for equilibrium solutions.

Keyword: Cybersecurity; Artificial Intelligence; Game Theory; Non-cooperative games; Optimization

Profil du candidat :
The candidate must have a solid background in algorithmic and be familiar with applied mathematics, in particular probability and statistics.

Applicants must submit official academic records for their bachelor and masters education. It is a requirement to hold a masters or an equivalent degree for being considered for this position. At least two references (name, position, e-mail, and telephone number) should be included in the application.
Candidates should send by e-mail a CV and a statement of purpose to:
Yann Busnel – IMT Atlantique, Rennes campus
yann.busnel@imt-atlantique.fr

Stéphane Paquelet – IRT B<>Com
stephane.paquelet@b-com.com

Patrick Maillé – IMT Atlantique, Rennes campus
patrick.maille@imt-atlantique.fr

Formation et compétences requises :
The position would fit well for a student with an M.S. in computer science (ideally, with a specialization in cybersecurity) and/or applied mathematics. A good knowledge of coding (Python, Matlab, or other similar programming language) and of cybersecurity concepts is also essential.
Some knowledge of distributed systems would be appreciated.

Adresse d’emploi :
The candidate will work at the SRCD department of IMT Atlantique, Rennes, and at the IRT B<>Com, Rennes, France. The working language will be French or English. The expected startup date is October 1, 2021, but may however be flexible and can be chosen by the candidate in consultation with Yann Busnel, Stéphane Paquelet, and Patrick Maillé.

Oct
10
Sun
2021
Modélisation mathématique/data pour la microbiologie appliquée à l’agroalimentaire
Oct 10 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : AgroSup Dijon
Durée : 3 ans
Contact : pierre-yves.louis@math.cnrs.fr
Date limite de publication : 2021-10-10

Contexte :
Dans le cadre d’un projet (financement confirmé) au sein de l’

UMR Procédés alimentaires et microbiologiques de DIJON

https://www.umr-pam.fr/fr/equipes-de-umr-pam/pmb.html

Sujet :
Modélisation augmentée par l’intelligence artificielle afin de
comprendre et de contrôler le processus de déshydratation de
micro-organismes de type levures.

Profil du candidat :
Préférentiellement les profils recherchés sont de type master en
mathématiques appliquées/statistique/data science/ML avec un intérêt
prononcé pour les applications en microbiologie en lien avec l’agro-alimentaire.

Formation et compétences requises :
modélisation mathématique, data science/statistique, mise en oeuvre sur machine (R/Python)

Adresse d’emploi :
UMR PAM, AgroSup Dijon, Batiment EPICURE
1 Esplanade Erasme – 21000 Dijon, France