Présentation Générale

 



           
Huitième édition du Symposium MaDICS (les inscriptions sont ouvertes !)

Ce rendez-vous annuel rassemble la communauté MaDICS afin de mettre en lumière les avancées récentes en sciences des données, à travers un programme scientifique riche comprenant des conférences invitées (keynotes), des ateliers thématiques, des tables rondes et des sessions de posters.
Ces temps forts favorisent des échanges scientifiques à la fois stimulants et conviviaux.

Une Session Poster sera spécialement consacrée aux jeunes chercheuses et jeunes chercheurs souhaitant présenter leurs travaux en analyse et gestion de données et dans les domaines interdisciplinaires autour de la Science des Données. Cette session sera également l’occasion d’échanger avec des collègues académiques et des acteurs industriels sur les thématiques de recherche présentées.

Dates importantes :

  • Soumission de posters : au plus tard le 23 mars 2026 2 avril 2026
  • Retour : 9 avril 2026
  • Date limite d’inscription : 30 avril 2026
  • Symposium : les 2 et 3 juin 2026 à Avignon

Nous vous invitons d’ores et déjà à réserver ces dates dans votre agenda et à vous inscrire !
Inscrivez-vous ici

Pour en savoir plus…

MaDICS est un Groupement de Recherche (GDR) du CNRS créé en 2015. Il propose un écosystème pour promouvoir et animer des activités de recherche interdisciplinaires en Sciences des Données. Il est un forum d’échanges et d’accompagnement pour les acteurs scientifiques et non-scientifiques (industriels, médiatiques, culturels,…) confrontés aux problèmes du Big Data et des Sciences des données.
Pour en savoir plus…


Les activités de MaDICS sont structurées à travers des Actions et Ateliers. Les Actions rassemblent les acteurs d’une thématique précise pendant une durée limitée (entre deux et quatre ans). La création d’une Action est précédée par un ou plusieurs Ateliers qui permettent de consolider les thématiques et les objectifs de l’action à venir.


Le site de MaDICS propose plusieurs outils de support et de communication ouverts à la communauté concernée par les Sciences des Données:

  • Manifestations MaDICS : Le GDR MaDICS labellise des Manifestations comme des conférences, workshops ou écoles d’été. Toute demande de labellisation est évaluée par le Comité de Direction du GDR. Une labellisation rend possible un soutien financier pour les jeunes chercheuses et chercheurs. Une labellisation peut aussi être accompagnée d’une demande de soutien financier pour des missions d’intervenants ou de participants à la manifestation.
    Pour en savoir plus…
  • Réseaux MaDICS : pour mieux cibler les activités d’animation de la recherche liées à la formation et à l’innovation, le GDR MaDICS a mis en place un Réseau Formation destiné à divers publics (jeunes chercheurs, formation continue,…), un Réseau Innovation pour faciliter et intensifier la diffusion des recherches en Big Data, Sciences des Données aux acteurs industriels et un Club de Partenaires qui soutiennent et participent aux activités du GDR.
    Pour en savoir plus…
  • Espace des Doctorants : Les doctorants et les jeunes chercheurs représentent un moteur essentiel de la recherche et le GDR propose des aides à la mobilité et pour la participation à des manifestations MaDICS.
    Pour en savoir plus…
  • Outils de communication : Le site MaDICS permet de diffuser des informations diverses (évènements, offres d’emplois, proposition de thèses, …) liées aux thématiques de recherche du GDR. Ces informations sont envoyées à tous les abonnés de la liste de diffusion MaDICS et publiés dans un Calendrier public (évènements) et une page d’offres d’emplois.

Adhésion au GDR MaDICS : L’adhésion au GDR MaDICS est gratuite pour les membres des laboratoires ou des établissements de recherche publics. Les autres personnes peuvent adhérer au nom de l’entreprise ou à titre individuel en payant une cotisation annuelle.
Pour en savoir plus…


Manifestations à venir

Journées Ecoles Conférences et Séminaires

Actions, Ateliers et Groupes de Travail :

CODA DAE DatAstro DSChem EXMIA GINO GRASP RECAST SaD-2HN SIMDAC SimpleText TIDS  


May
1
Sun
2022
Développement des identités décentralisées dans un environnement blockchain
May 1 – May 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIRIS, Université Lyon 1
Durée : 3 ans
Contact : parisa.ghodous@univ-lyon1.fr
Date limite de publication : 2022-05-01

Contexte :
le sujet proposé en préparation d’une thèse dont le financement est acquis suite à la réussite de l’appel au projet DémoES proposant de délivrer des certificats sur les compétences acquises tout au long des études pour apporter de la reconnaissance et  épauler les  étudiants dans leurs recherches de stages/alternances/jobs

Sujet :
Le sujet détaillé est ci-joint

Profil du candidat :
mots clés blockchain , identités décentralisées , certification

Formation et compétences requises :
Master en Informatique

Adresse d’emploi :
Université Lyon 1

Document attaché : 202203021618_Sujet_Thèse-Digital_identities.pdf

Machine learning based approaches for multi-omics data in personalized treatment of sepsis
May 1 – May 2 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire DAVID, UVSQ, Université Paris-Saclay
Durée : 3 ans
Contact : zaineb.chelly-dagdia@uvsq.fr
Date limite de publication : 2022-05-01

Contexte :
Ce sujet de thèse d’inscrit dans le projet RHU RECORDS (Rapid Recognition of Corticosteroid Resistant or Sensitive Sepsis) qui vise à identifier et à valider des biomarqueurs de prédiction de la réponse thérapeutique aux corticoïdes dans le cadre du sepsis.

Sujet :
L’objectif principal de cette thèse est d’étudier les méthodes existantes de l’apprentissage automatique dans l’analyse de données omiques obtenues dans le cadre du RHU RECORDS, et de proposer de nouvelles méthodes en fonction des limites qui seront identifiées. La méthodologie de travail qui sera suivie par le doctorant(e) est comme suit :
1. Étudier les méthodes de l’état de l’art dédiées à la réduction de dimensions pour les données multi-omiques de RHU RECORDS.
2. Identifier les limites de celles-ci et proposer des nouvelles méthodes qui permettent de les pallier.
3. Étudier les méthodes de l’état de l’art dédiées au regroupement afin de découvrir des relations ou interactions entre les patients.
4. Identifier les limites de celles-ci et proposer des nouvelles méthodes qui permettent d’y remédier.
5. Proposer et implémenter, après avoir fait une étude de l’existant, un pipeline bio-informatique permettant l’intégration et la visualisation des données multi-omiques.
6. Résumer le travail réalisé sur chaque partie dans un document de recherche scientifique qui sera soumis à une conférence/une revue internationale.

Profil du candidat :
La candidate ou le candidat doit être titulaire d’un Master en informatique ou bio-informatique.

Formation et compétences requises :
La candidate ou le candidat doit être titulaire d’un Master en informatique ou bio-informatique. Elle/il devrait avoir :
● Solides compétences en programmation et bases de données
● Bonne expérience en statistiques
● Bonne expérience en apprentissage automatique (machine learning)
● Bonne expérience en bio-informatique (souhaitable mais non obligatoire)
● Bonne communication orale en anglais, compétences techniques en lecture et en écriture ;

Adresse d’emploi :
●DAVID/équipe ADAM, Campus de sciences à Versailles, Université de Versailles St-Quentin UVSQ / Université Paris-Saclay.
●Inserm UMR 1173 Laboratoires II et LARENE, UFR Simone Veil, Montigny-le-Bretonneux, UVSQ / Université Paris-Saclay

Document attaché : 202204140633_40808 (002).pdf

May
2
Mon
2022
Apprentissage profond sur données synthétiques appliqué à l’imagerie radar
May 2 – May 3 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ONERA / UTT
Durée : 3 ans
Contact : alexandre.baussard@utt.fr
Date limite de publication : 2022-05-02

Contexte :
voir fichier attaché

Sujet :
voir fichier attaché

Profil du candidat :
voir fichier attaché

Formation et compétences requises :
voir fichier attaché

Adresse d’emploi :
ONERA et Université de Technologie de Troyes

Document attaché : 202202171418_phy-demr-2022-11.pdf

Classification automatique de sources acoustiques environnementales
May 2 – May 3 all-day

Offre en lien avec l’Action/le Réseau : MACLEAN/– — –

Laboratoire/Entreprise : GIPSA-Lab / ACOUSTB
Durée : 36 months
Contact : jerome.mars@gipsa-lab.fr
Date limite de publication : 2022-05-02

Contexte :
Les nuisances sonores présentes dans l’environnement sont provoquées par une multitude de sources (trains, circulation routière, avions, activités industrielles, chantier, etc.). Elles constituent une atteinte majeure à la qualité de vie et nuisent à la santé publique. Selon les rapports de l’Organisation Mondiale de la Santé (OMS 2018, 2011), le bruit est le second facteur environnemental derrière la pollution atmosphérique provoquant le plus de dommages sanitaires en Europe. De nombreuses sources sonores environnementales sont par conséquent soumises à des textes réglementaires en vue de réduire les nuisances associées.
Acteur majeur de l’acoustique en France, ACOUSTB est sollicité pour mener des études qui visent à évaluer les niveaux sonores provoqués par différentes sources. Ces études permettent de caractériser a posteriori l’empreinte acoustique de la source en question et de conclure quant au respect des seuils réglementaires. ACOUSTB propose un service de surveillance continue de sources de bruit. Dans ce contexte, un projet R&D lancé depuis un an a permis de proposer le développement d’un système de monitoring acoustique intelligent. Ces premiers travaux ont débouché sur une méthode d’analyse d’évènements sonores notamment ferroviaires. Issue de technologie « Deep Learning », la méthode implémentée permet d’identifier convenablement le type du matériel roulant (Fret, TER, TGV, Tram, etc.).
À travers la proposition de cette thèse CIFRE, nous cherchons aujourd’hui à approfondir nos travaux et développer des techniques plus élaborées permettant à notre système une détection automatique et une classification précise d’évènements sonores environnementaux

Sujet :
Le travail proposé dans cette thèse concerne le développement d’une méthodologie pour la détection et la classification d’évènements sonores. Les domaines d’application couvrent le suivi de l’émission acoustique d’une source de bruit particulière et l’analyse des paysages sonores complexes. Le travail s’appuiera sur des bases existantes de signaux issus des campagnes de mesures réalisées par ACOUSTB.

Le travail de recherche commencera par une analyse approfondie des bruits environnementaux et l’extraction des caractéristiques relatives à chaque source. Des descripteurs seront par la suite étudiés et proposés pour représenter les signaux dans les domaines temporel, fréquentiel et quefrentiel. Pour cela on se basera sur les algorithmes utilisés en ML (travaux réalisés au Gipsa-lab en classification de signaux acoustiques) et DL pour alimenter des modèles d’intelligence artificielle de l’architecture de classification. Le couplage de la détection et des modèles de classification permettra ensuite de réaliser des tâches de suivi autonome de sources de bruit sur des missions temps réel

Profil du candidat :
Le profil recherché devra être titulaire d’un Bac+5 (Ingénieur ou Master) avec une forte composante traitement du signal. Il devra également avoir des bases sur les techniques d’intelligence artificielle.

Une expérience significative du développement en Python pour le traitement et l’analyse du signal est requise. La maîtrise écrite et orale du français et de l’anglais est nécessaire. Un intérêt pour le son dans toutes ses composantes serait un atout.

Formation et compétences requises :
Le profil recherché devra être titulaire d’un Bac+5 (Ingénieur ou Master) avec une forte composante traitement du signal. Il devra également avoir des bases sur les techniques d’intelligence artificielle.

Adresse d’emploi :
Employeur : ACOUSTB (Grenoble) dans le cadre d’un financement CIFRE.

Equipes d’accueil : le doctorant sera accueilli dans les locaux d’ACOUSTB de Grenoble et au laboratoire GIPSA-Lab dans l’équipe SIGMAPHY.

Document attaché : 202204201230_Sujet-thèse-Acoustb-2022-Classification-Acoustique-Version_courte_Diffusion.pdf

Interprétation granulaire de données hétérogènes et multivariées
May 2 – May 3 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIB (Laboratoire d’Informatique de Bourgogne) EA7
Durée : 36 mois
Contact : ana-maria.roxin@u-bourgogne.fr
Date limite de publication : 2022-05-02

Contexte :
Priorité du gouvernement français, la lutte contre le trafic de stupéfiants est, d’une part, un enjeu de santé publique, avec chaque année, dans le monde, en moyenne 168 000 décès directement causés par l’usage de la drogue, et, d’autre part, un enjeu de sécurité, puisqu’il entraîne une dégradation des conditions de vie et des violences dans les quartiers touchés. Le ministre de l’Intérieur a placé, dès le mois de juillet 2020, ce combat contre la drogue parmi ses 3 priorités. Les connaissances des produits qui circulent en France sont rassemblées dans la base de données nationale STUPS© (Système de Traitement Uniformisé des Produits Stupéfiants) du ministère de l’Intérieur. Cette base contient des données hétérogènes et multivariées : des données macroscopiques (e.g. logos, dimensions), qualitatives (e.g. noms des agents de coupage), quantitatives (e.g. teneurs en principes actifs), mais également des données d’enquête non confidentielles (e.g. quantités saisies, date et lieu de saisie sur le territoire français). Créée en 1986, la base STUPS© est alimentée par les 5 laboratoires de Police Scientifique du Service National de Police Scientifique (SNPS) et par l’Institut de Recherche Criminelle de la Gendarmerie Nationale, et contient aujourd’hui environ 10 millions d’entrées. Présenté en septembre 2019, le Plan Stup français prévoit une série de 55 mesures, dont “La mise en place de nouveaux indicateurs pour connaître les usages des consommateurs, les méthodes des trafiquants et anticiper leurs évolutions”. Or, la structure inhérente de la base STUPS© et les caractéristiques des données contenues ne permettent pas d’en extraire des connaissances (interprétation par une machine), afin de pouvoir identifier, expliquer et prédire les usages des consommateurs et les méthodes de trafiquants.

Sujet :
Il s’agit de proposer un système intelligent pour répondre aux défis liés à l’interprétation de données hétérogènes et multivariées (modèles linéaires et non-linéaires) contenues dans la base de données STUPS© afin d’en décrire, comprendre et expliquer les connaissances implicites. Les travaux de recherche visés dans cette thèse concernent le domaine de l’Intelligence Artificielle (IA), et s’orienteront sur deux aspects fondamentaux : IA symbolique (modèles de connaissances définissant les sémantiques – Motik et al., 2012 – et autres aspects symboliques permettant d’interpréter et de raisonner sur ces connaissances – Motik 2006), d’une part, et, IA statistique (modèles d’apprentissage automatique de type réseaux artificiels de neurones – Bishop 1995 – permettant de construire des prédictions), d’autre part. Les recherches envisagées exploreront l’articulation de ces approches IA avec des approches granulaires (Mani 1998). En effet, selon Hobbs (Hobbs 1985), la capacité de conceptualiser le monde à différents niveaux et de bénéficier d’une mobilité totale entre ces niveaux est une caractéristique exclusive de la résolution humaine de problèmes. En effet, lorsque nous regardons le monde qui nous entoure nous n’en retirons que les choses qui servent nos intérêts du moment. Dans le cadre de cette thèse, nous investiguerons l’application de la théorie de la granularité de Hobbs au modèle de connaissances constitué, afin de permettre un raisonnement à différents niveaux de granularité.
Les problématiques de recherche adressées sont :
– comment intégrer de manière consistante et cohérente au sein d’une base de connaissances (ontologie) des données hétérogènes et inconsistantes dans le temps ?
– comment exploiter des résultats obtenus d’algorithmes d’apprentissage automatique pour améliorer la description des connaissances ?
– comment interpréter et raisonner sur les données ainsi intégrées de manière à déduire de nouvelles connaissances ?
– comment maximiser l’efficacité de l’approche ainsi spécifiée ?

Profil du candidat :
La maîtrise de la langue française est indispensable (niveau min. C1). Un bon niveau en communication anglaise est un plus. Les candidats doivent avoir un intérêt pour la recherche.

Formation et compétences requises :
Les candidats doivent être titulaires d’un diplôme d’ingénieur informatique ou d’un Master 2 en informatique.
Constituent un plus des compétences en ingénierie des connaissances (Web sémantique, ontologies) et/ou data science.

Adresse d’emploi :
9 avenue Alain Savary, 21000 Dijon, FRANCE

Document attaché : 202204221103_MESRI_LIB_2022_FR_EN.pdf

May
6
Fri
2022
Découverte de connaissances stratégiques dans le Web des données
May 6 – May 7 all-day

Offre en lien avec l’Action/le Réseau : RoCED/– — –

Laboratoire/Entreprise : LIFAT, équipe BDTLN, Université de Tours
Durée : 3 ans
Contact : arnaud.soulet@univ-tours.fr
Date limite de publication : 2022-05-06

Contexte :
Laboratoire : LIFAT, équipe BdTln, Université de Tours
Lieu : antenne universitaire de Blois
Durée : 3 ans
Financement : Région Centre Val de Loire

Sujet :
Le Web des données est déjà largement utilisé en recherche d’information. Ses graphes de connaissances devraient aussi être une source de connaissances stratégiques pour soutenir les travailleurs du savoir comme les journalistes ou les spécialistes en sciences humaines et sociales. En particulier, un enjeu majeur pour les aider est d’identifier les indicateurs socio-économiques visant à quantifier des phénomènes et leur impact au sein d’un domaine. Malheureusement, la diversité des entités et de leurs liens dans les graphes du Web des données rend complexe le développement de méthodes automatisées et transdisciplinaires pour identifier ces indicateurs, qui eux doivent être spécifiques à chaque discipline. En plus d’être hétérogènes, les graphes sont nombreux, volumineux et distribués, soulevant l’enjeu d’algorithmes parcimonieux pour pouvoir passer à l’échelle. L’objectif de ce travail de thèse est de proposer des modèles transdisciplinaires et de les mettre en œuvre dans les graphes de connaissances du Web afin d’y découvrir automatiquement des indicateurs interprétables au sein de leur domaine socio-économique. Les principales contributions attendues sont : la proposition de modèles d’analyse de données sensibles aux ontologies, la proposition d’algorithmes de génération d’indicateurs socio-économiques et le développement d’un prototype en ligne suivant les principes FAIR.

Profil du candidat :
Master en informatique, initiation à la recherche (enseignement suivi, ou projet, ou stage), motivation pour le web sémantique et l’extraction de connaissances

Formation et compétences requises :
Master en informatique, initiation à la recherche (enseignement suivi, ou projet, ou stage), motivation pour le web sémantique et l’extraction de connaissances

Adresse d’emploi :
Antenne de l’université de Tours
3 place Jean Jaurès
41000 BLOIS

Document attaché : 202203301408_Sujet thèse LIFAT – Découverte de connaissances stratégiques interprétables dans le Web des données 2022 03 16.pdf

May
9
Mon
2022
rediction of multidimensional colors printed by laser on plasmonic metamaterials using deep learning
May 9 – May 10 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire Hubert Curien, University of Saint-Eti
Durée : 3 years
Contact : amaury.habrard@univ-st-etienne.fr
Date limite de publication : 2022-05-09

Contexte :
A Phd position covering Deep Learning, color Science, Photonics and Laser Processing is available at the University of Saint-Etienne

Sujet :
Laser processing is a flexible and cost-effective tool that recently opened new perspectives of applications in industry. Implemented on plasmonic metasurfaces, it produces very singular colors that can be tuned independently in different modes of observation. Laser-induced plasmonic colors thus enable printing multiplexed images, which have great promise in security printing and data storage1,2. However, the latter require very good accuracy in color printing. And, laser induced colors strongly depend on the initial state of the material. Predicting the full gamut of colors that can be observed in different modes of observation on plasmonic metasurfaces processed by a large set of laser processing parameters, when the initial state of these metasurfaces can vary from one batch to another, appears then as a crucial step for industrial implementation. As physical models are missing for such predictions, other approaches must be found.
Deep learning represents one of the most powerful family of models in machine learning when one has to make some predictions from data having some local structure such as images or surfaces. In this thesis, the objective is to provide some appropriate architectures accompanied with relevant objective functions to correctly train these architectures for accurate prediction of the laser printed colors3. A first challenge is to take into account physical properties of the materials and the laser processing parameters in the model. Then, another goal is to improve the robustness of the model by adapting existing adversarial robustness methods existing in image classification to laser printed colors4. Finally, the third aspect tackled in this project is to develop models for being able to automatically adapt the learned models to slightly different initial metasurfaces by means of transfer learning/domain adaptation strategies. This last objective intends to offer a certain tolerance to unwanted variations in the initial metasurface elaboration while maintaining a very good accuracy on the prediction of the laser printed colors.
References
(1) N. Destouches, et al. “Laser-empowered metasurfaces for white light image multiplexing”, Adv. Func.
Mater., 31, 2010430 (2021)
(2) N. Dalloz, et al. “Anti-counterfeiting white light printed image multiplexing by fast nanosecond laser
processing”, Adv. Mater., 34, 2104054 (2021)
(3) M. Raissi. “Deep hidden physics models: Deep learning of nonlinear partial differential equations”,
Journal of Machine Learning Research, 19(25):1–24, 2018.
(4) A. Shafahi, et al. “Adversarially robust transfer learning”, in International Conference on Learning
Representations (ICLR), 2020.

Applications must be sent to both contact email addresses as soon as possible and before May 1st, 2022. Application can be written in French or English.
All applications must contain:
-a CV, with a possible list of publications and conferences, and the CEFR level in English (except if university courses were taught in English)
-a short motivation letter explaining why you should be successful in this
research work
-Bachelor degree and transcripts
-Master transcripts (at least semester 1 and 2. Semester 3 if available)
-An example of project that you have carried out in deep learning
-References of academics to be contacted (or recommendation letters).

Application deadline: May 1st, 2022

Start of the position: October 1st, 2022

Contacts: Prof. Nathalie Destouches: nathalie.destouches@univ-st-etienne.fr, and Prof. Amaury Habrard: amaury.habrard@univ-st-etienne.fr

Link:
https://laboratoirehubertcurien.univ-st-etienne.fr/en/teams/functional-materials-and-surfaces/job-opportunities/phd-offer-prediction-of-multidimensional-colors-printed-by-laser-on-plasmonic-metamaterials-using-deep-learning-and-adaptive-strategies.html

Profil du candidat :
Master of Science in Computer Science or in Physics

Formation et compétences requises :
-Very good knowledge and experience in machine learning and deep learning
-Background in color science and image processing
-Some knowledge in photonics and eager to expand his/her experimental skills in this field
-Open-minded, curious and interested in working with both computer scientists and physicists
-Ability to take initiatives and work in autonomy

Adresse d’emploi :
Campus manufacture
Laboratoire Hubert Curien, University of Saint-Etienne
Saint-Etienne, France

Document attaché : 202203101326_PhD offer 2022.pdf

May
13
Fri
2022
Interprétation des réseaux de neurones pour l’imagerie médicale
May 13 – May 14 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CREATIS / LIRIS
Durée : 3 ans
Contact : michael.sdika@creatis.insa-lyon.fr
Date limite de publication : 2022-05-13

Contexte :
L’apprentissage profond a fait faire un bond en avant fulgurant à l’analyse d’image médicale. Cependant, les réseaux
de neurones restent des “boîtes noires”: on ne sait ni comment sont prises les décisions ni quelles sont les
caractéristiques de l’image d’entrée utilisé pour la décision. Or le domaine médical est un domaine critique dans
lequel on shouhaite la décision soit transparente ou au moins vérifiable par clinicien. Par ailleurs, les bases
d’apprentissage/validation/test étant souvent issues de la partition d’une même base globale, un biais dans celle ci
affectera la généralisation du réseau qui montrerait pourtant de bons résultats.
Les cartes d’attributions [IG,EG], identifiant les pixels d’importance dans le décision d’un réseau, permettent parfois
de voir, a posteriori, les zones utilisées par un réseau pour prendre sa décision.Avec ces outils, nous avons montré à
CREATIS, que pour un classifieur sujets sains vs pathologiques, on pouvait améliorer l’interprétabilité
[Wargnier2021] ou utiliser ces cartes à l’apprentissage pour baser la décision sur les lésions (voir figure ci dessous)
[Wargnier 2022].

Sujet :
Différents axes pourront être abordés durant la thèse.
Nous avons constaté qu’avec notre terme de régularisation [Wargnier2022], l’apprentissage était plus long et plus
difficile. Le premier axe de la thése sera un travail sur la stabilisation de l’apprentissage: comprendre pourquoi
l’apprentissage est plus compliqué et proposer des méthodes pour réduire les temps d’apprentissage.
Notre terme de régularisation n’étant adapté qu’à des problèmes de classification, dans un second axe nous
pourrons étendre notre régularisation à des tâches de régression. Nous pourrons comme cas d’application des
problèmes de recalage affine ou de prédiction du handicap en sclérose en plaque.Dans un troisième axe, nous étendrons notre approche à la segmentation. Pour cette tâche ce type de
régularisation pourrait réduire le nombre de sujets annotées nécessaire. Il faudra prendre en compte deux
nouveaux aspects: le changement d’architectures qui sont de type encodeur/decodeur et le fait que la sortie n’est
pas qu’une unique valeurs mais une image de même taille que l’image d’entrée.

Profil du candidat :
Formation : machine/deep learning, mathématiques appliquées, analyse d’images, vision par ordinateur.
Un excellent niveau en développement logiciel, anglais (écrit/oral) et des facilités de rédaction sont aussi
attendues.
Merci de fournir les documents suivant avec votre candidature :
– Curriculum Vitae
– Diplômes et notes pour l’ensemble du cursus universitaire
– Lettre(s) de recommandation de l’encadrant de stage
– Lettre de motivation

Formation et compétences requises :
Formation : machine/deep learning, mathématiques appliquées, analyse d’images, vision par ordinateur.
Un excellent niveau en développement logiciel, anglais (écrit/oral) et des facilités de rédaction sont aussi
attendues.
Merci de fournir les documents suivant avec votre candidature :
– Curriculum Vitae
– Diplômes et notes pour l’ensemble du cursus universitaire
– Lettre(s) de recommandation de l’encadrant de stage
– Lettre de motivation

Adresse d’emploi :
Lieu : CREATIS La Doua Campus, Villeurbanne, France
Démarrage: Octobre 2022

Document attaché : 202203251552_phd-2022.pdf

May
15
Sun
2022
Turbulent convection: numerical modelling and physics-guided machine learning
May 15 – May 16 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LISN – Lab. Interdisciplinaire des Sciences du Num
Durée : 3 ans
Contact : anne.sergent@lisn.fr
Date limite de publication : 2022-05-15

Contexte :
*Summary* At very high Rayleigh numbers, a very intense heat transfer regime appears for which the triggering mechanisms are still poorly understood. Using HPC numerical simulations and physics-guided machine learning techniques, we seek to extract from data physical information bringing to light the multi-scale interactions between different turbulent flow structures.

The Rayleigh-Benard convection is established in a cavity under the effect of a temperature difference imposed on the horizontal walls, the bottom wall being heated. The resulting flow in the turbulent regime is a multi-structured and multi-scale phenomenon characterized by the superposition of small-scale plumes (heat vectors), a large-scale mean flow filling the cavity, boundary layers and turbulent fluctuations.

For many years, we have been simulating this physical phenomenon by direct numerical simulation (DNS). The transition to massively parallel simulations now allows us to consider calculations at parameter levels close to experiments. However, these calculations are very heavy and even if the spatio-temporal description of the flow can be very fine, it is difficult to approach statistically all the scales of the flow, to store all the computed fields, or to easily replay the sequences.

Despite progress made by careful comparison of experimental and numerical simulations studies, key differences remain in the amount and nature of the information provided by each community, making conjoint understanding difficult. For instance, experimental data is incomplete (probes time series, 2D fields sequences or images), but well converged and can reach high forcings. Numerical simulations are fully resolved in space, but reach lower turbulence level and for shorter durations. The tremendous potential capabilities of recent physics-informed deep learning (DL) techniques will help in seamlessly integrating the benefits of each approach into a new modeling and comprehension of turbulent physics.

In this project, we will take advantage of both perceptrons or (graph) convolutional neural networks frameworks enhanced with physical constraints, in order to mitigate the risks and to speed up and robustify the training phase of the models. More specifically, objectives are to infer missing data from experiments, and alleviate the cost of expensive numerical simulations by reducing the storage cost.

Sujet :
The project seeks to take advantage of the capabilities of machine learning techniques to reduce the complexity of the data. These techniques will be deployed at the interface between numerical models and solvers, and experimentally acquired data, not only to facilitate comparison, but also to access unmeasured/unquantifiable information in terms of variables or resolution finesse, and to guide physical exploration.

Two types of architecture will be considered based on deep or graph convolution neural networks, in which physical constraints enrich the output data for an accelerated convergence, with two distinct objectives. First,
it is about processing multi-source experimental data acquisition to reconstruct hidden quantities fields, and test ideas about the super-resolution reconstruction to improve the spatial resolution of measures. Second, it is to extract physical informations from experimental images. DNS data are used for preliminary tests, but also provide additional information, leading to mixing of experimental and numerical databases.

Several encouraging internships have already been carried out on the topic [Lucor et al. JCP 2022]. A large DNS database already exists [Belkadi et al. JFM 2021], but it will be expanded as needed using the resources of GENCI’s national supercomputers. The project will focus on hidden scalar or field variables reconstruction and/or super-resolution using DNS or / and experimental data, useful to better understand physical couplings between simultaneous flow quantities.

Profil du candidat :
• Good programming skills, especially in Python programming
• Good writing skills

Formation et compétences requises :
• Master of Science or equivalent in applied mathematics, physics, or mechanical engineering, with competences in fluid dynamics, statistics, or scientific computing

Adresse d’emploi :
Laboratoire Interdisciplinaire des Sciences du Numérique, UMR-CNRS 9015,
Département de Mécanique www.lisn.upsaclay.fr
Univ. Paris-Saclay, bât. 507, Rue du Belvédère, 91405 Orsay

Document attaché : 202204121258_PhD_LISN_convection_2022_madics_v2.pdf

May
20
Fri
2022
L’IA pour un meilleur accès au réseau de textes juridiques – Application à la législation française
May 20 – May 21 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : CEDRIC – CNAM Paris
Durée : 3 ans
Contact : nada.mimouni@cnam.fr
Date limite de publication : 2022-05-20

Contexte :
Dans un cadre de transparence envers ses citoyens et afin de faciliter leur participation à la vie démocratique, plusieurs pays ont opté pour le partage de l’information publique et adopté des lois favorisant l’accès à cette information sous toutes ses formes.

En particulier, l’accès au droit est rendu possible via des outils en ligne comme Legifrance (https://www.legifrance.gouv.fr/), un service public de diffusion du droit créé en 2002 en France. Il propose une base très complète constituée des codes officiels et textes consolidés en vigueur, textes du journal officiel et de jurisprudence.

Cet accès doit permettre au citoyen de tracer le cadre de ces droits et devoirs face aux situations auxquelles il est confronté tous les jours. Or, tel qu’il est conçu le droit peut s’avérer complexe et inaccessible pour un simple citoyen.

En effet, malgré l’encadrement dont bénéficie l’utilisateur de Legifrance pour interroger son contenu, un usage optimal suppose de maîtriser le mode d’élaboration des textes, leurs structures et chainages dans le temps, la hiérarchie des normes ainsi que le langage utilisé.

D’autres sites publics offrent des versions explicatives du droit présenté sous sa forme brute sur Legifrance. Leurs consultation s’impose au spécialiste du secteur de droit, tout comme au simple utilisateur, lorsqu’il s’agit d’interpréter les règles de droit. Ils seront souvent amenés à naviguer parmi les pages de ces sites et à travers les différents corpus (législation, jurisprudence, etc.) pour pouvoir construire une réponse à un besoin spécifique.

Dans ce contexte, l’accès à l’information juridique est la première grande question dans l’accès au droit.
Les textes dans le domaine juridique possèdent des caractéristiques spécifiques qui sont importantes à prendre en compte pour améliorer l’accès à l’information.
D’un côté, le contenu sémantique de ces textes est souvent exprimé par un vocabulaire et sous des formes linguistiques complexes. D’un autre côté, les documents sont de différents types avec une structure particulière à chacun de ces types et ils contiennent des références de différentes natures vers d’autres textes qui définissent le contexte dans lequel ils doivent être interprétés.

Sujet :
Les récentes avancées dans les différents domaines de l’IA ont mis en avant de nouvelles approches et méthodes de traitement de données de différentes natures (brutes, formatées, etc.) et types (numériques, textuelles, etc.). En particulier, dans le contexte d’accès à l’information juridique, nous jugeons très pertinent la mise en place d’une approche pluridisciplinaire d’analyse et de fouille dans ces collections de textes pour la prise en compte de ces dimensions sémantique et intertextuelle. L’objectif à terme est de proposer un système qui utilise des méthodes d’IA (méthodes statistique, symboliques, de traitement automatique de textes) combinées avec des techniques d’analyse de graphes pour mieux répondre aux besoins des utilisateurs.

Le projet a un double objectif qui se décline en deux étapes :

* Explorer l’utilisation des nouvelles technologies de l’IA pour la fouille de gros volumes de textes juridiques disponibles en ligne (modélisation sémantique, résumé automatique, traduction automatique, classification, régression, etc.).
* Intégration des résultats de la première étape dans un modèle sémantique plus complet pour un système riche d’accès à l’information juridique.

Profil du candidat :
Le (la) candidat(e) devra avoir de très bonnes aptitudes en apprentissage automatique et traitement de données. Une connaissance en ingénierie de connaissances et techniques du web sémantique sera très appréciée. Le (la) candidat(e) devra avoir de très bonnes aptitudes linguistiques en français et en anglais (parlé et écrit).

Formation et compétences requises :
Master 2 ou équivalent en informatique.

Adresse d’emploi :
CNAM Paris, laboratoire CEDRIC.

Document attaché : 202205091416_2022-AI-for-legal-access-cnam.pdf

May
23
Mon
2022
Calcul haute performance pour l’optimisation d’une analyse IACT basée sur la comparaison d’images
May 23 – May 24 all-day

Offre en lien avec l’Action/le Réseau : BigData4Astro/– — –

Laboratoire/Entreprise : LAPP
Durée : 36 mois
Contact : flavien.vernier@univ-smb.fr
Date limite de publication : 2022-05-23

Contexte :
Le LAPP est un laboratoire de l’Institut de Physique Nucléaire et de Physique des Particules (IN2P3), institut du Centre National de la Recherche Scientifique (CNRS) qui coordonne les programmes dans ces domaines. Le LAPP est une unité mixte de recherche (UMR 5814) du CNRS et de l’Université Savoie Mont-Blanc (USMB). Plus de 150 chercheurs, enseignants-chercheurs, ingénieurs, techniciens, administratifs, étudiants et visiteurs étrangers y travaillent. Les recherches menées au LAPP ont pour but l’étude de la physique des particules élémentaires et de leurs interactions fondamentales, ainsi qu’à explorer leurs liens avec les grandes structures de l’Univers. Le LAPP est impliqué dans les expériences du LHC (ATLAS, LHCb), celles des neutrinos (SuperNémo, STEREO, LBNO, ..), d’astrophysique (HESS, CTA) ou des ondes gravitationnelles (Virgo). La localisation du laboratoire à 50 kms du CERN, et la présence d’un laboratoire de physique théorique dans les mêmes locaux, en font un laboratoire très attractif pour tous les scientifiques de ce domaine de recherche. Le LAPP héberge également un mésocentre de calcul et de stockage de taille intermédiaire mais qui contribue de manière significative aux traitement de données des grandes expériences de physique telles ATLAS, LHCb ou CTA.

Sujet :
L’expérience Cherenkov Telescope Array (CTA) deviendra, dans un futur proche, le plus grand observatoire d’astronomie gamma au monde.
À ce jour, un premier prototype de télescope de grande taille (Large Size Telescope, LST-1) est opérationnel sur le site de La Palma.
Un effort du LAPP, dans le cadre du système de contrôle et d’acquisition des données de CTA (Array Control And Data Acquisition system}, ACADA), a permis de développer et de fournir une analyse en temps réel, basée sur des algorithmes de reconstruction simples et robustes.
Celle-ci est en phase de déploiement sur le site de La Palma et traite les données du prototype LST-1 en utilisant seulement quelques cœurs de calcul.
Cet algorithme traitera, à terme, les données de $13$ à $19$ télescopes à La Palma, soit environ 17 Go/s et environ 27 Go/s sur le site du Chili.

Une des missions de l’analyse en temps réel de CTA consistera à envoyer des alertes aux autres observatoires d’astronomie multi-messagers.
Cette analyse devra composer avec les repointages très rapides des LST.
Elle devra également évaluer le plus vite possible si une alerte reçue d’un de ces observatoires doit être suivie et devra permettre d’ajuster le pointé des télescopes à la volée pour obtenir une détection de meilleure qualité.
Ces alertes concerneront principalement l’étude de phénomènes transitoires tels que les AGN variables ou les sursauts gamma (Gamma Ray Burst),
Phénomènes qui nécessitent une meilleure sensibilité à basse énergie ce qui permet une détection plus rapide.
Une méthode de reconstruction, basée sur la comparaison d’images, provenant des télescopes, à des modèles préalablement calculés, permet d’obtenir une bien meilleure sensibilité à basse énergie.
Malheureusement, les implémentations actuelles sont extrêmement lentes et ne permettent donc pas un traitement en temps réel des données acquises.
Activités
Nous proposons donc une thèse d’informatique dont le but est d’optimiser cette méthode de reconstruction afin de permettre son utilisation en tant qu’analyse en temps réel.
Dans un premier temps, l’étudiant en thèse optimisera l’algorithme classique à l’aide des méthodes du calcul haute performance et pourra tester son efficacité en profitant de la présence de LST-1 et de la construction future de LST-2, 3, 4 et également des futurs télescopes de moyenne taille (Medium Size Telescope, MST). Cette méthode sera aussi testée à l’aide de simulations.
Ensuite, des méthodes de comparaison plus efficaces, basées sur des algorithmes de calcul haute performance (tables de hashage, page rank, etc), seront développées et évaluées afin de permettre une analyse en temps réel sur le site complet. L’utilisation de GPU peut également être envisagée.

Profil du candidat :
Le candidat devra être scientifiquement curieux, motivé par la découverte et le travaille sur des projets d’envergures. Il devra avoir des bases solides en mathématique et informatique, ainsi qu’une volonté de les approfondir.

Postuler en ligne
https://emploi.cnrs.fr/Offres/Doctorant/UMR5814-CORFEU-003/Default.aspx

Formation et compétences requises :
Formation
Bac+5 en informatique

Compétences / qualifications demandées
Compétences générales :
• travail en équipe
• présentation de travaux dans des conférences internationales
Connaissance mathématiques :
• méthode de Krylov / méthode QR / page rank
• algorithme de Levenberg-Marquardt
Connaissances des architectures matériels :
• CPU (vectorisation, niveau de cache)
• GPU (architecture et modèles de programmation)
Langages de programmation :
• C++ (C++17)
• CUDA
• une connaissance de python 3 est un plus
Compilation/gestion de programmes :
• cmake 3
• make
• g++-9 ou plus récent
• git / gitlab
• une connaissance des dernières fonctionnalités de nvc++ est un plus

Adresse d’emploi :
LAPP
9 Chem. de Bellevue,
Annecy-le-Vieux,
74940 Annecy

May
25
Wed
2022
Lac de données et référentiels de métadonnées pour élaborer des indicateurs de développement durable de la ville à l’aide de l’open Big data. Application aux pratiques sportives en ville
May 25 – May 26 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IGN/DVRC/CNAM
Durée : 36 mois
Contact : nicolas.travers@devinci.fr
Date limite de publication : 2022-05-25

Contexte :
La disponibilité croissante de données couvrant des aspects variés de notre réalité est une opportunité pour mieux observer et comprendre cette réalité dans sa complexité en exploitant et croisant ces données. Des approches internationales se penchent alors sur la définition d’indicateurs suffisamment comparables dans l’espace et dans le temps, à l’échelle des pays ou des villes, pour évaluer et comparer des situations. Un indicateur des ODD plus précis à considérer pour élaborer et valider notre proposition est l’indicateur ODD11.7 de l’ODD11 ; à savoir l’accès pour tous à des espaces publics sûrs, tels que les espaces verts, les espaces pour les pratiques sportives, etc. En particulier, un domaine qui nous intéresse ici est celui de la pratique sportive dans la ville durable et l’impact de l’organisation de (méga-) évènements sur ces villes et sur les pratiques sportives.
Un évènement sportif est un phénomène spatio-temporel qui affecte structurellement, économiquement et socialement un territoire (le lieu accueillant cet évènement), et générant ainsi un héritage (Harada, 2005 ; Preuss, 2019). L’étude de l’impact des évènements sportifs sur les territoires et sur les pratiques sportives, en comparant des situations par exemple avant et après un (méga-) évènement, ou encore entre deux villes différentes, nécessite l’exploitation de données massives connues par leur volume, variété et vélocité. Il est également indispensable de pouvoir les croiser au-delà des domaines couverts, et de maîtriser suffisamment les biais possibles de comparaison. Cela peut s’avérer particulièrement complexe quand les données sont hétérogènes, de volume, de vélocité et de variété qui peuvent surpasser les capacités des systèmes traditionnels de stockage et de traitement des données. Par exemple, la région Île-de-France possède près de 2,4 millions de licenciés, 19 100 clubs et plus de 101 000 emplois dans le domaine sportif et plus de 7 millions de Franciliennes et Franciliens pratiquent une activité physique et sportive de manière régulière, sans compter les infrastructures et les équipements des pratiques sportives (Gautier et al., 2017).
Diverses solutions informatiques sont avancées dans la littérature pour améliorer le croisement de données hétérogènes et mettre en place des SI plus ouverts, comme les lacs sémantiques. En géomatique, des référentiels de référencement direct ou indirect sont spécifiés et produits pour permettre que la caractéristique de localisation de sources diverses soit employée pour les croiser. Des modèles de métadonnées sont enfin proposés pour rendre compte de sources d’incertitudes et de biais.

Sujet :
Ces recherches visent à faciliter l’étude comparée de phénomènes localisés grâce à l’open data et à des solutions avancées d’intermédiation, que ce soit pour étudier un même espace à deux dates (avant et après un évènement) ou pour étudier deux espaces (deux villes différentes). Plus précisément, nous ne visons pas la production automatique d’un diagnostic, mais plutôt d’accroître l’exploitabilité croisée des données ainsi que l’accès aux métadonnées nécessaires à l’adoption d’une perspective critique sur les résultats.
Le sujet de la thèse porte plus précisément sur la structuration de données et de métadonnées en vue de permettre des analyses critiques et comparées relatives à l’impact d’évènements et mégaévènements sur les pratiques sportives en ville. Ce sujet prend tout son intérêt pour les collectivités territoriales, pour des porteurs de projets numériques autour des pratiques sportives et pour les sponsors de grands évènements tels que les JO’2024 et d’autres grands évènements sportifs internationaux (GESI), tels que Roland Garros, et de Grands Évènements Sportifs Nationaux (GESN), tels que la Parisienne.
Le verrou principal est l’absence de cadre unificateur pour mobiliser des données pourvues d’hétérogénéités sémantiques. Celui-ci s’intéresse donc à réconcilier cette hétérogénéité, mais également à faciliter la manipulation et l’analyse de données avec une forte connectivité.
L’approche se positionne dans le domaine de la modélisation sémantique (extraction et transformation de schémas pour des bases de données graphes) et de la qualité en géomatique (description explicite des informations utiles à l’interprétation des données et à la détection de biais possibles).
Deux cas d’étude plus précis seront considérés pour élaborer et valider la proposition :
– La comparaison des parcours sportifs en ville, à vélo ou à pied, avant et après un mégaévènement comme les JO à l’aide d’open data : quels référentiels de données et métadonnées pour permettre le croisement et la comparaison ? Pour ce qui est du référencement spatial, la thèse étudiera particulièrement les référentiels indirects adoptés par les communautés, c’est-à-dire la description d’une localisation dans une donnée par une référence vers un objet pourvu de coordonnées géographiques (ISO, 2003 ; Hill and Zheng, 1999 ; Chen et al., 2018). Pour ce qui est de la comparaison avant-après, une question concerne la valorisation durable d’un patrimoine, par exemple la promotion de lieux importants de l’histoire du sport cycliste lors de JO, comme l’INSEP ou le Vélodrome Jacques Anquetil, nouvelle dénomination de l’antique Cipale, ou encore le bâtiment où l’union cycliste internationale a été créée le 14 avril 1900, devrait permettre que ce patrimoine structure davantage de parcours après les JO qu’avant, soit en matière de tronçons parcourus ou de pauses. On étudiera dans cette thèse, a priori, quelles conditions de disponibilité de référentiels et de solutions de croisement de données permettront de conduire ces analyses a posteriori.
– La comparaison des parcours sportifs en ville, à vélo ou à pied, entre deux villes en se fondant sur des données produites par différentes administrations et participants et pourvues de biais différents.

Profil du candidat :
● Un CV,
● Une lettre de motivation adaptée au sujet proposé,
● Les relevés de notes des dernières années d’étude,
● L’avis du directeur de master (ou de la personne responsable du diplôme donnant l’équivalence du master), le cas échéant des lettres de recommandation.

Formation et compétences requises :
Le candidat doit répondre aux exigences suivantes :
● Possède de solides compétences en informatique, en science des données ou en mathématiques (Master 2 ou équivalent en Informatique ou en Sciences de l’Information Géographique),
● Possède de bonnes connaissances en modélisation des systèmes d’information,
● À un intérêt marqué pour la recherche en science des données et les applications réelles de l’analyse avec un goût pour la pluridisciplinarité orientée vers les sciences de la ville,
● Possède de solides compétences en développement de logiciels pour pouvoir réaliser des idées de recherche en matière de prototypes de logiciel,
● Possède d’excellentes compétences en communication en anglais.

Adresse d’emploi :
50% ALDV (Paris la défense)
50% IGN (Marne la vallée)

Document attaché : 202205091006_Sujet-de-these_IGN-CNAM-DVRC_2022-2025Apublier032022.pdf

May
27
Fri
2022
Appel à candidature pour une thèse en deep learning.
May 27 – May 28 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Institut de Mathématiques de Marseille et IRPHE
Durée : 36 mois
Contact : badihghattas@gmail.com
Date limite de publication : 2022-05-27

Contexte :
Ce sujet de thèse est porté par un consortium pluridisciplinaire composé de chercheurs spécialistes en statistiques, mécanique des fluides et biomécanique ainsi qu’imagerie médicale. L’équipe de statistiques de l’Institut de Mathématiques de Marseille (UMR7373) et l’équipe de biomécanique de l’Institut de Recherche sur les Phénomènes Hors Equilibre (UMR7342, Marseille) en collaboration avec le service d’imagerie médicale de l’hôpital de la Timone souhaitent développer un outil de diagnostic clinique capable de prédire précocement l’évolution de pathologies de l’aorte thoracique.
L’équipe de biomécanique d’IRPHE réalise des modélisations numériques complexes de certaines de ces pathologies grâce à des données provenant d’imageries médicales -CT scan pour les géométries et IRM2D pour les conditions aux limites-, l’objectif est de mettre en œuvre des modèles 3D patient-spécifique tenant compte des interactions fluide-structure pour différents types d’évolution -favorable et défavorable- ainsi que pour plusieurs temps post opératoires. Ceci permet d’associer des grandeurs physiques liées aux dynamiques de l’écoulement et des structures à certaines évolutions cliniques défavorables ([1]) et, par la suite, de prédire précocement certains échecs thérapeutiques. Toutefois, le temps de calcul associé à ces modélisations complexes constitue un obstacle à leur utilisation en pratique clinique.

Sujet :
Sujet : Substitution de modèles numériques de mécanique des fluides par des modèles d’apprentissage profond. Applications aux dissections aortiques

L’objectif principal de cette thèse est donc de mettre en œuvre des techniques d’apprentissage profond pour substituer à ces modèles numériques afin de prédire précocement l’évolution de pathologies de l’aorte thoracique.

Profil du candidat :
Le(la) candidat(e) devra avoir des connaissances académiques dans les champs disciplinaires relatifs au sujet: Deep learning en priorité et modélisations numériques. Il(elle) devra avoir une appétence avérée pour l’interdisciplinarité. Une expérience en programmation python est indispensable, en particulier, tensorflow, keras, pandas et numpy.

Formation et compétences requises :
Etudiant(e) issu(e) d’un Master de mathématiques/informatiques, ou d’école d’ingénieur filière statistique et/ou informatique.

Adresse d’emploi :
Aix Marseille université, campus de Luminy, 13009 Marseille.

Document attaché : 202203302221_These_Ghattas-Deplano – Fr.pdf

May
29
Sun
2022
Réduction des biais pour un apprentissage collaboratif et éthique sur des données dynamiques
May 29 – May 30 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire d’Informatique, Systèmes, Traitement
Durée : 36 mois
Contact : faiza.loukil@univ-smb.fr
Date limite de publication : 2022-05-29

Contexte :
voir document attaché.

Sujet :
voir document attaché.

Profil du candidat :
Le/la candidat(e) doit avoir un intérêt à la recherche. Il/elle devra être capable d’apporter ses idées novatrices, son enthousiasme, sa rigueur et devra faire preuve d’un esprit d’équipe prononcé.

Formation et compétences requises :
Idéalement, le/la candidat(e) suit actuellement une formation (master de recherche, diplôme d’ingénieur, …) en lien avec le domaine de l’Intelligence Artificielle/Apprentissage Automatique.
La connaissance en ingénierie des données et particulièrement en apprentissage distribué sont nécessaires.
De bonnes compétences au développement logiciel et la maîtrise de langages de programmation (idéalement Python) sont indispensables.

Adresse d’emploi :
LISTIC – Polytech Annecy-Chambéry, BP 80439 – Annecy le Vieux – 74944 ANNECY Cedex, France.

Document attaché : 202205021515_SujetTheseED_LISTIC.pdf

May
30
Mon
2022
Approche IA pour la caractérisation d’un logement ou d’un bâtiment par rapport à un type de handicap et des contraintes réglementaires associées
May 30 – May 31 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIB (Laboratoire d’Informatique de Bourgogne)
Durée : 36 mois
Contact : ana-maria.roxin@u-bourgogne.fr
Date limite de publication : 2022-05-30

Contexte :
La loi handicap de 2005 a instauré l’obligation de mise en accessibilité des bâtiments recevant du public à l’horizon 2015, échéance repoussée à 2024, dans le cadre des “schémas directeurs d’accessibilité – agenda d’accessibilité programmé”. Depuis 2017, le handicap est l’une des priorités du gouvernement français. Le point d’étape publié en mai 2021, fait état de plusieurs actions clés, notamment “Développer des solutions de logement innovantes et inclusives” et “Engager la société vers une accessibilité universelle”. C’est par rapport à ces deux actions que s’inscrivent les travaux envisagés dans le cadre de la présente thèse. L’idée est de proposer une caractérisation d’un logement ou d’un bâtiment par rapport à des contraintes réglementaires e.g. présence de douches sans ressaut dans une construction neuve à partir du 1er janvier 2021.
Depuis la dernière décennie, la dématérialisation de l’ensemble des données et des processus concernant les bâtiments est un enjeu mondial. Au niveau national, le dernier plan dans ce domaine est le plan BIM 2022 – ce plan prévoit de généraliser l’utilisation du numérique et des approches BIM (Building Information Modeling) dans la filière construction. La transformation numérique du bâtiment visée induit une généralisation de l’utilisation de la maquette numérique par les maîtres d’ouvrage.
Plusieurs normes internationales existent déjà pour la modélisation numérique des bâtiments et des espaces urbains, notamment l’IDM (Information Delivery Manual (ISO 29481-1:2016), le MVD (Model View Deifnition (ISO 29481-3:2010) et l’IFC (Industry Foundation Classes) (ISO 16739:2018). Cette dernière norme est une norme ouverte, utilisée pour la représentation de l’ensemble des éléments constitutifs du bâtiment physique. La norme IFC permet l’interopérabilité syntaxique des outils et des processus autour de la maquette numérique. Grâce à cette représentation orientée objet, l’IFC permet d’identifier de manière unique chaque élément au sein d’une maquette numérique donné par un identifiant global (appelé GUID pour Globally Unique IDentifier) et d’associer les éléments les uns aux autres sous la forme d’un graphe. Le modèle IFC a l’ambition de couvrir tout le cycle de vie. Par conséquent il est très riche afin de pouvoir s’adapter à l’évolution et permettre l’enrichissement des informations échangées. Il a été adapté en langage ontologie sous la forme d’ifcOWL [1].
Toutefois, les différents processus pouvant être implémentés sur la base de ces normes dépendent encore grandement d’opérateurs humains. De plus, les différentes évolutions subies par le modèle IFC n’ont pas aidé à le rendre plus compréhensible ni à faciliter sa manipulation par les professionnels du domaine. Par rapport à cela, plusieurs publications scientifiques ont démontré les avantages apportés par les technologies dites du “Web sémantique”, pour la vérification de maquettes numériques notamment en termes d’accessibilité [2][3].

Sujet :
Les recherches menées au sein de cette thèse vont adresser et combiner les deux axes de l’Intelligence Artificielle: d’une part des approches statistiques [4] e.g. apprentissage non-supervisé à partir de corpus de textes réglementaires, et, d’autre part, des approches symboliques [5] e.g. création de règles logiques permettant d’identifier des éventuels non-respects de conformité par rapport à une maquette numérique de logement.
Cette thèse vise à proposer, formaliser, spécifier puis implémenter une approche permettant une interprétation cohérente, complète et sémantique d’un bâtiment et/ou d’un logement par rapport à la réglementation existante en termes d’accessibilité et handicap.
Plus particulièrement, il s’agit d’étudier comment les textes législatifs peuvent être adaptés sous forme de règles logiques pouvant être utilisées pour vérifier si d’éventuelles non-conformités sont présentés dans des maquettes numériques de bâtiments et/ou de logements. Une première étape vise à extraire des textes réglementaires des règles semi-formelles, en utilisant des algorithmes type machine learning. Dans un deuxième temps une base de connaissances pour les bâtiments/logements et les contraintes d’accessibilité sera conçue. La troisième étape vise à traduire les règles obtenues dans la 1e étape dans un langage formel (e.g. SHACL) et les appliquer à la base de connaissance de l’étape 2. Ainsi, le contenu de la base pourra être classé selon les règles et les points de non-conformité identifiés. Pour faciliter l’interaction et l’ajout de nouvelles règles, une 4e étape vise à implémenter la base de connaissances sur un magasin de triplets et permettre son interrogation via des requêtes (adaptées à partir des règles). Le traitement de ces requêtes pourra être optimisé. L’approche devra être extensible pour permettre l’ajout de nouvelles contraintes ou de nouvelles connaissances.

Profil du candidat :
Les candidats doivent avoir un bon niveau en français et/ou en anglais (niveau min. C1).
Les candidats doivent avoir un intérêt pour la recherche, un solide bagage scientifique, des compétences en programmation. Constituent un plus des compétences en ingénierie des connaissances (Web sémantique, ontologies), BIM et/ou data science.

Formation et compétences requises :
Les candidats doivent être titulaires d’un Master 2 ou d’un diplôme d’ingénieur en informatique ou en mathématiques appliquées, en rapport avec l’un des domaines suivants: l’intelligence artificielle, l’ingénierie des connaissances, l’apprentissage automatique, le traitement du langage naturel.

Adresse d’emploi :
LIB – EA 7534, 9 avenue Alain Savary, 21000 Dijon, France –

PAGE D’ACCUEIL

Document attaché : 202204250931_EASING_PhDproposal.pdf

GraphologIA : Actionner les méga-graphes de données dans les dataflows d’apprentissage automatique
May 30 – May 31 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIP6 – Sorbonne Université
Durée : 3 ans
Contact : Hubert.Naacke@lip6.fr
Date limite de publication : 2022-05-30

Contexte :
Projet doctoral pré-sélectionné par l’institut SCAI de Sorbonne Université
https://www.sorbonne-universite.fr/projets-proposes-en-2022-programme-instituts-et-initiatives

Contexte :
Omniprésence des méga-graphes. Dans de nombreux domaines applicatifs les objets étudiés sont structurés en graphe car ce modèle apporte de la flexibilité et de l’extensibilité dans la représentation des données et leur gestion: graphe de connaissances, d’interaction entre molécules, réseaux sociaux, relations entre lieux et événements. D’après Gartner, ces graphes seront au cœur de 80% des analyses de données dès 2025. Dans un contexte big data, la capacité d’acquisition de données ne cesse de croître et entraîne une croissance des besoins pour manipuler des graphes toujours plus grands, complexes et variables dans le temps. Ces derniers sont qualifiés de méga-graphes de données (big data graphs).

Sujet :
Voir le sujet détaillé sur :
http://www.sorbonne-universite.fr/sites/default/files/media/2022-03/03257_172_prd-scai-2022-graphologia-v2.pdf

L’objectif de cette thèse est de concevoir un framework efficace pour construire et analyser de manière automatique des méga-graphes à partir de données hétérogènes et dynamiques. Cela permettra d’exécuter plus efficacement à la fois la préparation des données d’apprentissage et l’entraînement du modèle d’apprentissage.
Ce framework devra permettre d’accomplir les tâches suivantes dans l’analyse et la préparation des données pour les tâches d’apprentissage :
● Compréhension fine des données initiales et de leur dynamique
● Unification et alignement de données
● Exécution incrémentale efficace du processus d’alignement du graphe

La clé de l’approche est un langage déclaratif de haut niveau pour définir chaque étape du cycle dit dit d’ingénierie IA
● Définition d’un langage déclaratif de haut niveau pour décrire de manière logique et déclarative le processus qui transforme les données initiales vers un graphe
● Conception de nouvelles méthodes d’indexation pour accéder de manière aléatoire à diverses zones du graphe, tout en minimisant la latence, quelle que soit la taille du graphe.
● Validation expérimentale du bénéfice du framework.

Profil du candidat :
M2 ou bac+5 en informatique

Formation et compétences requises :
Nous recherchons un.e candidat.e motivé.e avec des bonnes compétences en bases de données (SQL, indexation), algorithmique et programmation (Python, Java).
Des connaissances en optimisation de requêtes, en algorithmique sur les graphes et en apprentissage automatique sont un plus.

Adresse d’emploi :
LIP6, Sorbonne Université, 5 place Jussieu, 75005 PARIS

Document attaché : 202204070955_PRD_SCAI_2022_graphologIA_v3.pdf

PhD position: Hate speech detection at CNRS@CREATE Singapore
May 30 – May 31 all-day

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : CNRS@CREATE Singapore
Durée : 48 mois
Contact : farah.benamara@irit.fr
Date limite de publication : 2022-05-30

Contexte :
Program DesCartes is a large French-Singapore program led by CNRS@CREATE, the first international subsidiary of CNRS.

We are recruiting 14 students (having a Bachelor/Master or currently in M1 or M2) to pursue a PhD, mostly in Singapore in top 15 university worldwide and some in France, all co-advised by French and Singaporean researchers, particularly around the fields of IA.

A (non-exhaustive) list of PhD topics can be found at:

DESCARTES PhD


We have schemes for very competitive salaries for PhDs in Singapore (~3.000 euros/month ++)

Students interested need to contact ASAP:
descartes-hiring@cnrsatcreate.sg

More information can be found at https://www.cnrsatcreate.cnrs.fr/descartes/

Sujet :
Hate Speech (HS) and harassment are particularly widespread in online communication, especially due to users’ freedom and anonymity and the lack of regulation provided by social media platforms. This phenomenon has determined a growing interest in using artificial intelligence and Natural Language Processing techniques to address social and ethical issues. An extensive body of work has been proposed to automatically detect HS relying on a variety of deep learning methods (Founta and Nunes, 2018; Schmidt and Wiegand, 2017). Most research focus on HS as expressed in texts without taking into account the contexts in which they have been uttered. This PhD aims to bridge the gap by investigating for the first time how HS are expressed and detected in multi-party dialogues. We will propose new context-based deep learning methods that leverage the conversation thread to account for hateful contents and how they evolve as the dialogue proceeds.

This project is part of the DesCartes program, https://www.cnrsatcreate.cnrs.fr/descartes/, that aims to develop disruptive hybrid AI to serve the smart city and to enable optimized decision-making in complex situations, encountered for critical urban systems.

References

Paula Fortuna, Sérgio Nunes:A Survey on Automatic Detection of Hate Speech in Text. ACM Comput. Surv. 51(4): 85:1-85:30 (2018)

Anna Schmidt, Michael Wiegand: A Survey on Hate Speech Detection using Natural Language Processing. SocialNLP@EACL 2017: 1-10

**Supervision**

Jian Su (Institute for Infocomm Research (A*STAR, https://colips.org/~sujian/ )), Shafiq Joty (Nanyang Technological University (NTU), https://raihanjoty.github.io/ ) and Farah Benamara (Toulouse University, https://www.irit.fr/~Farah.Benamara/ )

**Duration**

4 years

**Location**

CNRS@CREATE Singapore (https://www.cnrsatcreate.cnrs.fr/about-us/)

Profil du candidat :
–>Master degree in Computer science with solid background in NLP and/or machine learning

Formation et compétences requises :
–> A good experience in deep learning approaches for NLP

–> Good programming skills in Python

Adresse d’emploi :
**How to apply**

Send your CV together with a list of publications to Jian Su (sujian@i2r.a-star.edu.sg), Shafiq Joty (srjoty@ntu.edu.sg) and Farah Benamara (farah.benamara@irit.fr) before May 27th 2022

May
31
Tue
2022
Learning to quantify uncertainties in scientific machine learning methods with application in hemodynamics
May 31 – May 30 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LISN, CNRS, Univ. Paris Saclay
Durée : 36 mois
Contact : lionel.mathelin@lisn.upsaclay.fr
Date limite de publication : 2022-05-31

Contexte :
Les processus de décision à fort enjeu et les applications scientifiques nécessitent à la fois des méthodes robustes et la capacité de quantifier l’incertitude des approches d’apprentissage automatique prédictif pour minimiser les risques et fournir la rigueur scientifique requise. Néanmoins, les méthodes traditionnelles d’apprentissage automatique
telles que l’apprentissage profond rencontrent des difficultés à expliquer leurs résultats, à faire respecter les contraintes physiques et à traiter de petites bases de données souvent bruitées. La mécanique des fluides, par exemple, peut normalement offrir des quantités de données très limitées ou de faible qualité, la vérité terrain est régulièrement inconnue, les bases de données de référence sont conventionnellement rares, et enfin, leurs problèmes ont généralement des termes et des paramètres inconnus. Récemment, le développement des réseaux des neurones guidés par la physique a ouvert de nouvelles perspectives pour la solution de différentes équations différentielles universelles et de solveurs pour les équations aux dérivées partielles dans les problèmes de haute dimension. Malgré les progrès de l’intégration des techniques de quantification de l’incertitude dans ces techniques, celles-ci sont encore sous-utilisées pour diverses raisons. Tout d’abord, il s’agit encore d’un domaine en développement avec de nombreux concepts encore flous pour la communauté de l’apprentissage automatique. De même, les applications de la mécanique des fluides ont un coût de calcul plus élevé que leurs homologues traditionnels de l’apprentissage profond, ce qui renforce l’hésitation de la communauté de l’apprentissage automatique par les techniques traditionnelles de quantification de l’incertitude. De même, les communautés d’apprentissage automatique se sont appuyées sur des ensembles de données simples pour valider les méthodes de quantification de l’incertitude, et elles ne peuvent traiter que des problèmes à faible dimension.

Sujet :
Cette thèse a pour objectif de développer de nouvelles stratégies de
quantification d’incertitudes dédiées à la fiabilisation de méthodes pour l’apprentissage automatique scientifique dans le domaine de la mécanique des fluides numériques.
Un focus sera fait sur des applications de systèmes de mécanique des fluides multi-échelles permettant de tester la sensibilité de la quantification à des incertitudes de différentes natures et à différentes échelles. Elle envisage également l’utilisation de méthodes d’analyse après-coup séparées du modèle prédictif. Dans ce cas, un modèle externe observe les méthodes d’apprentissage et tente de comprendre leurs incertitudes prédictives en observant les différents patterns d’erreurs qui conduisent aux incertitudes prédictives des modèles. Enfin, cette thèse explorera l’utilisation de méthodes de d’incertitude classiques (par ex., polynômes de chaos, indices de Sobol) avec ceux utilisés par les méthodes d’apprentissage profond.

Mots-clefs : Apprentissage profond, quantification des incertitudes, systèmes physiques complexes, approche Bayésienne, mécanique des fluides, hémodynamique.

Profil du candidat :
Master en Mathématiques appliquées, statistiques, science des données, quantification des incertitudes.

Formation et compétences requises :
Connaissance des méthodes d’apprentissage automatique et formation en mathématiques appliquées et statistiques.

Utilisation des outils actuels de science des données : langage Python et
framework de deep learning (comme PyTorch, TensorFlow ou Keras).

Adresse d’emploi :
Laboratoire Interdisciplinaire des Sciences du Numérique (LISN)
Université Paris-Saclay, CNRS

Document attaché : 202203251540_UDOPIA_Thesis_Proposal_UQSML.pdf

Approches déclaratives efficaces pour l’extraction des motifs d’intervalles fermés
May 31 – Jun 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : GREYC CNRS UMR 6072
Durée : 3 ans
Contact : bruno.cremilleux@unicaen.fr
Date limite de publication : 2022-05-31

Contexte :
En fouille de données, l’extraction de motifs [7] vise à identifier des régularités dans des ensembles de données (datasets). Ces motifs permettent de faire émerger des relations implicites dans une grande masse de données. Il appartient ensuite aux data scientists et aux experts sur les données de déterminer si un motif est le résultat d’une simple corrélation, ou s’il est le fruit d’une relation directe entre ses composants, par exemple un lien de causalité entre deux composants. De nombreuses applications en fouille de données sont amenées à traiter des données numériques. Dans ce contexte, il est souvent nécessaire de passer par une étape de binarisation pour profiter des méthodes symboliques. Cette binarisation s’effectue soit en créant des attributs pour constituer des intervalles sur les valeurs des données [4], soit en partitionnant les valeurs dans le dataset en catégories selon différents paramètres : taille, composition de blocs au regard de leur classe, tests statistiques, entropie, etc. [2]. La binarisation entraîne une perte d’information par rapport aux données d’origine. Une technique comme l’ “interordinal scaling” permet de préserver l’information d’origine mais conduit à des données de grande taille. Afin d’avoir une méthode capable de traiter directement les données numériques, Kaytoue et al. [4] ont proposé la méthode MintIntChange capable d’extraire des motifs d’intervalles fermés réduisant ainsi la chaîne de traitement de données. Cependant, étendre MintIntChange pour être capable de traiter d’autres tâches de fouille avec de nouvelles contraintes s’avère une tâche non triviale.

Sujet :
La synergie entre la fouille de données et les paradigmes déclaratifs tels que SAT, la Programmation Par Contraintes (PPC) et la Programmation Linéaire en Nombre Entier (PLNE) a connu un grand essor au cours de la dernière décennie à travers différents travaux [5, 1, 8, 6]. L’avantage principal de ces approches réside dans leur côté déclaratif qui offre une large flexibilité pour s’adapter à des tâches variées en fouille de données. Ces approches incluent la possibilité d’intégrer de nouvelles contraintes spécifiées par l’utilisateur sans besoin de développer de nouveaux algorithmes spécifiques de résolution. L’objectif de ce travail de thèse est de définir des méthodes et de concevoir des outils permettant l’extraction de motifs d’intervalles dans un cadre déclaratif. En effet, travailler directement sur les données numériques est un enjeu majeur pour réduire les étapes dans la chaîne de traitement des données. De plus, les approches déclaratives sont particulièrement adaptées pour cette tâche. Dans le cadre de la programmation par contraintes, différents types de contraintes sont à la disposition de l’utilisateur pour définir le réseau de contraintes à résoudre : des contraintes prédéfinies dans le solveur ou des contraintes définies en extension par un ensemble de valeurs autorisées ou interdites. En outre, un utilisateur expert peut définir ses propres contraintes en établissant la sémantique de la contrainte, ainsi que l’algorithme de filtrage associé [3, 5, 1].

Les principales contributions attendues sont :
— Proposition d’une approche déclarative offrant un bon compromis entre efficacité et flexibilité pour l’extraction de motifs d’intervalles.
— Les approches proposées doivent être capables d’enrichir l’expérience de l’utilisateur en mettant en place des moyens (contraintes ou techniques d’apprentissage) pour éviter d’inonder l’utilisateur avec des motifs inintéressants.
— L’avantage principal des méthodes déclarative réside dans leur aspect générique et tout domaine applicatif générant des données numériques peut être considéré comme un objet d’étude. Néanmoins, nous visons dans cette thèse l’extraction de motifs dans des bases de données moléculaires où les molécules sont décrites par des descripteurs numériques.

Profil du candidat :
Le(a) candidat(e) doit être titulaire d’un diplôme master ou équivalent en informatique.

Formation et compétences requises :
Le(a) candidat(e) doit être titulaire d’un diplôme master ou équivalent en informatique avec des compétences dans le domaine de la programmation par contraintes, la programmation linéaire et la fouille de motifs. Le candidat(e) recherché(e) devra avoir de solides compétences en programmation C++, JAVA, et Python3. La maîtrise des solveurs comme OR-tools, SCIP, Choco serait un vrai plus.

Adresse d’emploi :
GREYC CNRS UMR 6072
6 Boulevard du Maréchal Juin
Bâtiment Sciences 3
Université de Caen Normandie
CS 14032, 14032 CAEN cedex 5

Document attaché : 202204092202_ademif.pdf

IA Frugale pour la segmentation d’images
May 31 – Jun 1 all-day

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : GREYC UMR CNRS 6072
Durée : 3 ans
Contact : olivier.lezoray@unicaen.fr
Date limite de publication : 2022-05-31

Contexte :
IA Frugale pour la segmentation d’images

Sujet :
L’avènement de l’apprentissage profond a été un véritable tsunami dans la communauté de l’apprentissage automatique, conduisant à des résultats, notamment en vision par ordinateur, auxquels on ne se serait pas attendu quelques années auparavant. Pour de nombreuses tâches de vision, les performances des algorithmes d’apprentissage profond sont devenues équivalentes, voire supérieures, aux performances humaines.

Cependant, ces résultats ont été obtenus au prix d’une utilisation toujours plus importante de ressources telles que : la taille du modèle, le temps et l’énergie nécessaires à leur entraînement, avec des bases de données toujours plus grandes et des exigences d’annotation toujours plus élevées. Cette augmentation des besoins en ressources présente des inconvénients majeurs, liés à l’impact du ML sur l’environnement, à la difficulté d’implémenter des modèles sur des architectures embarquées, ou encore aux défis soulevés lorsque les modèles doivent être entraînés sur des tâches pour lesquelles peu de données d’entraînement sont disponibles.

Ces observations ont très récemment conduit certains auteurs [1, 2] à introduire le concept d’apprentissage automatique frugal et à définir ce que devrait être une méthodologie d’apprentissage automatique frugal, et comment évaluer la frugalité.

Dans cette thèse, nous étudierons la frugalité dans le contexte de l’IA pour la segmentation d’images [3]. L’objectif sera de proposer des modèles frugaux qui peuvent fournir des résultats efficaces tout en étant structurés pour fournir une complexité temporelle et spatiale réduite. Plus précisément, nous considérerons plusieurs aspects de la frugalité et nous nous inspirerons des travaux récents suivants : i) la conception de modèles légers par design [4, 5] ii) la compression de modèles existants [6] iii) l’élagage de modèles de segmentation existants [4, 7] iv) la frugalité sur les labels d’images et la segmentation d’images zero shot [8, 9].

[1] Lingjiao Chen, Matei Zaharia, and James Y. Zou, “FrugalML : How to use ML Prediction APIs more accurately and cheaply,” in Advances in Neural Information Processing Systems 33 : Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, December 6-12, 2020, Virtual, Hugo Larochelle, Marc’Aurelio Ranzato, Raia Hadsell, Maria-Florina Balcan, and Hsuan-Tien Lin, Eds., 2020.
[2] Mikhail Evchenko, Joaquin Vanschoren, Holger H. Hoos, Marc Schoenauer, and Michèle Sebag, “Frugal Machine Learning,” arXiv :2111.03731 [cs, eess], Nov. 2021.
[3] Shervin Minaee, Yuri Y. Boykov, Fatih Porikli, Antonio J Plaza, Nasser Kehtarnavaz, and Demetri Terzopoulos, “Image segmentation using deep learning : A survey,” IEEE Transactions on Pattern Analysis and Machine Intelligence, pp. 1–1, 2021.
[4] Linjie Wang, Quan Zhou, Chenfeng Jiang, Xiaofu Wu, and Longin Jan Latecki, “DRBANET: A Lightweight Dual-Resolution Network for Semantic Segmentation with Boundary Auxiliary,” arXiv :2111.00509 [cs], Oct. 2021.
[5] Enze Xie, Wenhai Wang, Zhiding Yu, Anima Anandkumar, Jose M. Alvarez, and Ping Luo, “Segformer : Simple and efficient design for semantic segmentation with transformers,” CoRR, vol. abs/2105.15203, 2021.
[6] Moonjung Eo, Suhyun Kang, and Wonjong Rhee, “A Highly Effective Low-Rank Compression of Deep Neural Networks with Modified Beam-Search and Modified Stable Rank,” arXiv :2111.15179 [cs], Nov. 2021.
[7] Wei He, Meiqing Wu, Mingfu Liang, and Siew-Kei Lam, “Cap : Context-aware pruning for semantic segmentation,” in 2021 IEEE Winter Conference on Applications of Computer Vision (WACV), 2021, pp. 959–968.
[8] Mengde Xu, Zheng Zhang, Fangyun Wei, Yutong Lin, Yue Cao, Han Hu, and Xiang Bai, “A Simple Baseline for Zero-shot Semantic Segmentation with Pre-trained Vision-language Model,” arXiv :2112.14757 [cs], Dec. 2021.
[9] Maxime Bucher, Tuan-Hung Vu, Matthieu Cord, and Patrick Pérez, “Zero-shot semantic segmentation,” in Advances in Neural Information Processing Systems 32 : Annual Conference on Neural Information Processing Systems 2019, NeurIPS 2019, December 8-14, 2019, Vancouver, BC, Canada, Hanna M. Wallach, Hugo Larochelle, Alina Beygelzimer, Florence d’Alché-Buc, Emily B. Fox, and Roman Garnett, Eds., 2019, pp. 466–477.

Profil du candidat :
Les candidats doivent être titulaires d’une maîtrise ou d’un diplôme d’ingénieur dans un domaine lié à l’informatique, au génie électrique ou aux mathématiques appliquées, et posséder de solides compétences en programmation (en particulier avec des cadres d’apprentissage profond). Une expérience en traitement d’images sera un plus. Les candidats doivent avoir des capacités à rédiger des rapports scientifiques et à communiquer des résultats de recherche lors de conférences en anglais.

Formation et compétences requises :
Les candidatures doivent inclure les documents suivants au format électronique : i) Une courte lettre de motivation expliquant pourquoi vous êtes intéressé(e) par ce projet, ii) Un CV détaillé décrivant vos antécédents de recherche en rapport avec le poste iii) Les relevés de notes des diplômes de master. iv) Les coordonnées de trois références (ne joignez pas les lettres de référence à votre candidature car nous ne les demanderons qu’aux candidats présélectionnés).

Veuillez envoyer votre dossier de candidature à frederic.jurie@unicaen.fr et olivier.lezoray@unicaen.fr.

Adresse d’emploi :
Le poste est à pourvoir dès que possible avec un salaire de 32 kEuros brut, et sera situé à Caen, France.

Idéalement située au cœur de la Normandie, à deux heures de Paris et à seulement 10 minutes des plages, Caen, ville natale de Guillaume le Conquérant, est une ville vivante et dynamique.

Document attaché : 202204031020_PhD_FrugalAI.pdf