
MaDICS est un Groupement de Recherche (GDR) du CNRS créé en 2015. Il propose un écosystème pour promouvoir et animer des activités de recherche interdisciplinaires en Sciences des Données. Il est un forum d’échanges et d’accompagnement pour les acteurs scientifiques et non-scientifiques (industriels, médiatiques, culturels,…) confrontés aux problèmes du Big Data et des Sciences des données.
Pour en savoir plus…
Les activités de MaDICS sont structurées à travers des Actions et Ateliers. Les Actions rassemblent les acteurs d’une thématique précise pendant une durée limitée (entre deux et quatre ans). La création d’une Action est précédée par un ou plusieurs Ateliers qui permettent de consolider les thématiques et les objectifs de l’action à venir.
Le site de MaDICS propose plusieurs outils de support et de communication ouverts à la communauté concernée par les Sciences des Données:
- Manifestations MaDICS : Le GDR MaDICS labellise des Manifestations comme des conférences, workshops ou écoles d’été. Toute demande de labellisation est évaluée par le Comité de Direction du GDR. Une labellisation rend possible un soutien financier pour les jeunes chercheuses et chercheurs. Une labellisation peut aussi être accompagnée d’une demande de soutien financier pour des missions d’intervenants ou de participants à la manifestation.
Pour en savoir plus… - Réseaux MaDICS : pour mieux cibler les activités d’animation de la recherche liées à la formation et à l’innovation, le GDR MaDICS a mis en place un Réseau Formation destiné à divers publics (jeunes chercheurs, formation continue,…), un Réseau Innovation pour faciliter et intensifier la diffusion des recherches en Big Data, Sciences des Données aux acteurs industriels et un Club de Partenaires qui soutiennent et participent aux activités du GDR.
Pour en savoir plus… - Espace des Doctorants : Les doctorants et les jeunes chercheurs représentent un moteur essentiel de la recherche et le GDR propose des aides à la mobilité et pour la participation à des manifestations MaDICS.
Pour en savoir plus… - Outils de communication : Le site MaDICS permet de diffuser des informations diverses (évènements, offres d’emplois, proposition de thèses, …) liées aux thématiques de recherche du GDR. Ces informations sont envoyées à tous les abonnés de la liste de diffusion MaDICS et publiés dans un Calendrier public (évènements) et une page d’offres d’emplois.
Adhésion au GDR MaDICS : L’adhésion au GDR MaDICS est gratuite pour les membres des laboratoires ou des établissements de recherche publics. Les autres personnes peuvent adhérer au nom de l’entreprise ou à titre individuel en payant une cotisation annuelle.
Pour en savoir plus…
Manifestations à venir
Journées Ecoles Conférences et Séminaires
Actions, Ateliers et Groupes de Travail :
CODA DAE DatAstro DSChem EXMIA GINO GRASP RECAST SaD-2HN SIMDAC SimpleText TIDS
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Huawei Technologies, Paris Research Center
Durée : 2 years
Contact : jeremie.leguay@huawei.com
Date limite de publication : 2022-10-08
Contexte :
When applied to communication networks, traditional control and decision-making approaches for traffic engineering require a comprehensive knowledge of the system and of user behaviors, which is challenging in practice. Data-driven AI approaches do not have this drawback, but they offer no safety bounds and are difficult to interpret. In this context, we are conducting research to combine the best of both worlds. In particular, we are developing solutions based on Reinforcement Learning (RL) where the intelligence is shared between a global AI (at the central level) and local AIs (at the edge level) with the integration of safety bounds and the capability to interpret decisions.
Sujet :
In the context of ANR SAFE project, the postdoc researcher will focus on the design and implementation of (i) a testbed to validate AI-based control planes for traffic engineering and routing, and (ii) a semi-distributed reinforcement architecture which leverages efficient collaboration between global and local AIs with safety features. The postdoc will collaborate with partners of the project.
The work will mainly include:
• Design of a semi-distributed architecture based on RL
• Design and implementation of novel safety RL algorithms
• Implementation and evaluation using simulators or emulators (e.g., NS3, Mininet, GNS3)
• Test case generation and performance tests (scripts)
• Participation to scientific publications
Profil du candidat :
Ph.D. Degree in Networking, Computer Science, Electrical Engineering
Formation et compétences requises :
The following skills and experiences are highly desirable:
• Ph.D. Degree in Networking, Computer Science, Electrical Engineering
• Extensive experience with network simulators / emulators and RL applied to networking
• Experience with development tools: Visual Studio, SVN, GIT
• Background in Networking and RL
• English: Operational
Adresse d’emploi :
18 quai du point du jour, 92100 Boulogne Billancourt
Offre en lien avec l’Action/le Réseau : – — –/Doctorants
Laboratoire/Entreprise : Université de Paris-Dauphine – PSL
Durée : 2 ans renouvelables
Contact : bruno.chavesferreira@dauphine.fr
Date limite de publication : 2022-10-10
Contexte :
Créé au sein de l’Université Paris Sciences et Lettres (PSL) et hébergé à Paris Dauphine, l’Institut « Applied Computational Social Sciences » a pour vocation de renforcer la recherche sur les grandes problématiques sociétales (cohésion politique et sociale, transition écologique, transformation numérique, efficacité et compétitivité économique) en articulant sciences des données et sciences sociales.
L’Institut collecte et traite à larges échelle des données hétérogènes tant pour permettre des avancées scientifiques que pour contribuer à éclairer le débat public et la décision. Il réunit sur une équipe pluridisciplinaire de chercheurs et s’appuie sur une équipe d’ingénieurs qui apportent leurs expertises pour constituer des bases de données originales et opérer des traitements complexes. Ces projets sont initiés et portés par des laboratoires du CNRS, de Dauphine, de l’ENS, de l’INSP, et des MinesParis-Tech. Les résultats des travaux ont vocation à être largement diffusés auprès de partenaires institutionnels et du monde économique.
Sujet :
Dans le cadre du développement de l’Institut ACSS, l’Université PSL recrute 1 ingénieur d’études (IE) en science des données. Il/elle sera chargé de mettre en œuvre des méthodes et outils de collecte et traitement de données issues de sources variées (Web, bases de données institutionnelles, archives, etc.). Il/elle aura également la responsabilité de veiller au respect des bonnes pratiques en matière de développement et de gestion du code et des données. Enfin, il/elle contribuera au développement de modèles statistiques ou d’apprentissage automatique (notamment dans le domaine du traitement automatisé de la langue naturelle).
Profil du candidat :
Titulaire d’un master informatique, maths-info ou d’un diplôme d’école d’ingénieur.
Compétences nécessaires :
Connaissance approfondie de l’écosystème Python (et/ou R) en traitement, analyse et visualisation de données.
Maîtrise des bases de données SQL.
Méthodologies de développement : tests unitaires, gestion de versions (GIT).
Compréhension des méthodes scientifiques des sciences humaines et sociales.
Compétences additionnelles souhaitées :
Connaissance des paradigmes principaux d’apprentissage automatique (régression, classification supervisée, clustering, visualisation, etc.).
Pratique des services web modernes (architecture REST, formats JSON, XML, etc.) et des expressions régulières.
Une expérience en traitement de la langue naturelle (NLP) et dans les bases de données NoSQL sera vivement appréciée.
Formation et compétences requises :
Compétences nécessaires :
Connaissance approfondie de l’écosystème Python (et/ou R) en traitement, analyse et visualisation de données.
Maîtrise des bases de données SQL.
Méthodologies de développement : tests unitaires, gestion de versions (GIT).
Compréhension des méthodes scientifiques des sciences humaines et sociales.
Compétences additionnelles souhaitées :
Connaissance des paradigmes principaux d’apprentissage automatique (régression, classification supervisée, clustering, visualisation, etc.).
Pratique des services web modernes (architecture REST, formats JSON, XML, etc.) et des expressions régulières.
Une expérience en traitement de la langue naturelle (NLP) et dans les bases de données NoSQL sera vivement appréciée.
Adresse d’emploi :
Université Paris Dauphine-PSL
Pl. du Maréchal de Lattre de Tassigny, 75016 Paris
Document attaché : 202210100643_ACSS_junior_data_scientist_en.pdf
Offre en lien avec l’Action/le Réseau : – — –/Doctorants
Laboratoire/Entreprise : Telecom SudParis/Samovar
Durée : 3 ans
Contact : bruno.defude@telecom-sudparis.eu
Date limite de publication : 2022-10-10
Contexte :
Télécom SudParis est une grande école publique d’ingénieurs reconnue au meilleur niveau des sciences et technologies du numérique. La qualité de ses formations est basée sur l’excellence scientifique de son corps professoral et une pédagogie mettant l’accent sur les projets d’équipes, l’innovation de rupture et l’entreprenariat. Télécom SudParis compte 1 000 étudiantes et étudiants dont 700 élèves ingénieurs et environ de 150 doctorantes et doctorants. Télécom SudParis fait partie de l’Institut Mines-Télécom, premier groupe d’école d’ingénieurs en France, et partage son campus avec Institut Mines-Télécom Business School. Télécom SudParis est co- fondatrice de l’Institut Polytechnique de Paris (IP Paris), Institut de Sciences et Technologies à vocation mondiale avec l’École polytechnique, l’ENSTA Paris, l’ENSAE Paris et Télécom Paris.
Sujet :
Dans le cadre de l’appel à Manifestation d’intérêt Compétences et Métiers d’avenir, Télécom SudParis s’engage à massifier la formation des étudiants.es formés.es à l’intelligence artificielle. L’objectif stratégique du recrutement est donc de répondre à cette demande au niveau de Télécom SudParis, IP Paris et Hi! Paris.
L’objectif du programme AI4Good de TSP est double :
– Massifier la formation de spécialistes en Data Science et Intelligence artificielle
– Développer la Formation d’utilisateurs experts de l’intelligence Artificielle appliquée au bien commun (Santé, Environnement, Education…)
Trois types de missions seront donc couvertes par le poste :
– Enseignement
– Développement des programmes pédagogiques et des filières d’enseignement AI4Good de TSP
– Recherche
Profil du candidat :
Le poste est ouvert sur un profil machine learning, intelligence artificielle ou statistiques. La recherche s’effectuera dans le laboratoire Samovar au sein de l’équipe qui correspondra le plus au profil du candidat-e sélectionné-e.
Activités
1. Enseignement
Pour répondre au besoin de massification en enseignement, le/la MdC recruté.e devra :
– Assurer des enseignements en apprentissage statistique, classification automatique, Data Mining dans la Formation d’Ingénieur sous statut Etudiant
– Coordonner des modules d’enseignement
– Participer à l’encadrement de projets étudiants
– Assurer le tutorat pédagogique d’Étudiants en stage de troisième année
–> Certains enseignements auront vocation à être délivrés en anglais
2. Développement du programme AI4Good
Dans le cadre du développement des programmes pédagogiques et des filières d’enseignement AI4Good de TSP, le/la MdC recruté.e intègrera l’équipe d’Appui et Transformation pédagogique de TSP sous la responsabilité de la Directrice Adjointe des Formations. Dans ce cadre, il/elle devra :
– Assurer une veille scientifique et pédagogique dans le domaine de la formation à l’utilisation de l’intelligence artificielle
– Contribuer au développement des nouvelles filières du programme AI4Good
– Représenter les intérêts de la Direction des Formations de TSP au sein d’Hi! Paris
– Participer au montage du certificat IA/DS d’IP Paris pour les non spécialistes
3. Recherche
Le projet de recherche du/de la candidat(e) se situera dans le domaine des modélisations probabilistes et traitements statistiques appliqués à l’Intelligence artificielle, avec applications dans l’un des domaines prioritaires que sont :
– la Santé
– l’Environnement
– l’Energie
– l’Éducation
Formation et compétences requises :
Doctorat ou
Compétences, connaissances et expériences indispensables
Expérience de l’enseignement et de la recherche avec un goût prononcé pour les applications
Connaissance des pratiques pédagogiques dans l’enseignement supérieur
Maîtrise du français et de l’anglais
Excellentes qualités d’expression écrite et orale
Compétences confirmées dans le domaine de l’Intelligence artificielle
Compétences, connaissances et expériences souhaitables
Connaissances scientifiques étendues dans les domaines des technologies de l’information
Expérience internationale en enseignement-recherche/ Visibilité internationale
Capacités et aptitudes
Qualités relationnelles et pédagogiques permettant de mener des discussions dans le domaine de la data science et de l’intelligence artificielle
Aptitude à la rédaction, à la synthèse
Aptitude à négocier avec des interlocuteurs de haut niveau, internes et externes à l’Institut Mines-Télécom et l’Institut Polytechnique de Paris
Disponibilité
Sens de l’animation et de l’organisation
Dynamisme, curiosité, volonté de découvrir et apprendre
Adresse d’emploi :
Telecom SudParis exerce principalement ces activités d’enseignement à Evry (91) mais certains enseignements peuvent être organisés à Palaiseau (91).
Offre en lien avec l’Action/le Réseau : DOING/– — –
Laboratoire/Entreprise : LIS (Aix-Marseille université, UMR CNRS 7020), Ma
Durée : 6 mois
Contact : noel.novelli@lis-lab.fr
Date limite de publication : 2022-10-10
Contexte :
Les travaux seront menés dans le cadre du projet multipartenaire QualiHealth financé par l’ANR.
Sujet :
Le candidat participera à l’extension d’une plateforme de science des données dédiée à l’amélioration de la qualité des données de santé.
* Le candidat retenu travaillera au développement, à la mise en œuvre et à l’application d’algorithmes et d’approches d’apprentissage automatique pour améliorer la qualité des données de santé. Plus précisément, les principales missions sont :
— Recherche sur le profilage de la qualité des données de soins de santé et le graphe de connaissances ;
— Concevoir des algorithmes d’apprentissage automatique pour découvrir et classer les règles de qualité des données, les dépendances et les contraintes ;
— Prototypage et test des solutions d’apprentissage des indicateurs de qualité des données et des contraintes de qualité ;
— Intégration et interfaçage avec la plateforme de contrôle de la qualité des données de santé.
Profil du candidat :
– Doctorat en informatique
– Expérience en apprentissage automatique et/ou en analyse de données complexes et/ou en gestion de données
Formation et compétences requises :
– Doctorat en informatique
– Compétences en programmation en Python
– Bonnes compétences en communication écrite et verbale en anglais
Adresse d’emploi :
Faculté des Sciences de Luminy
LIS – Case 901
163 avenue de Luminy
F-13288 Marseille Cedex 9, France.
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : ISEA (Institut des Sciences Exactes et Appliquées)
Durée : 2 ans renouvelable
Contact : nazha.selmaoui@unc.nc
Date limite de publication : 2022-10-14
Contexte :
L’Université de la Nouvelle-Calédonie est un établissement pluridisciplinaire qui répond notamment aux besoins de formation et de recherche propres à la Nouvelle-Calédonie. Elle veille à accompagner efficacement les évolutions de la
Nouvelle-Calédonie et à répondre à ses besoins spécifiques.
L’UNC, ancrée dans son environnement et sa région, a pour ambition de promouvoir son activité de recherche sur la base de l’excellence et de la reconnaissance nationale et internationale. Cette promotion passe par la mise en valeur de ses enjeux scientifiques, de ses capacités d’innovation et de transfert ainsi que par la qualité des formations qu’elle dispense.
Sujet :
L’Université de la Nouvelle-Calédonie recrute pour les besoins de son département Sciences et Techniques, un·e maître·sse de conférences section CNU 27 (informatique) par voie de délégation, pour début de l’année 2023 (les cours débutent début février 2023).
Ce profil s’adresse uniquement aux enseignants-chercheurs titulaires.
Les dossiers de candidature (lettre de motivation, CV, copie du dernier arrêté de promotion et d’affectation, et copie de la pièce d’identité) sont à envoyer, en format pdf, au plus tard le 14 octobre 2022 par voie électronique à recrutement@unc.nc
Profil du candidat :
La personne recrutée aura un profil recherche lié à l’apprentissage machine, la fouille de données, la science de données, le big data et applications, ainsi qu’une polyvalence en ce qui concerne l’enseignement
Profil Enseignement : La personne recrutée interviendra au département des Sciences et Techniques. Elle prendra notamment en charge une
partie des enseignements d’informatique en L1 (enseignements communs aux licences d’informatique et de mathématiques). Elle pourra aussi intervenir plus généralement en deuxième et troisième année de licence informatique dans des domaines liés à I’informatique fondamentale (théorie des automates, complexité et calculabilité,…). La personne recrutée pourra aussi potentiellement intervenir dans le L3 MIAGE et Master MIAGE. Dans ce cadre, la personne recrutée proposera aussi et encadrera des projets tuteurés, et suivra des stages.
Profil Recherche : La personne recrutée développera ses activités de recherche au sein de l’Institut des Sciences Exactes et Appliquées
(ISEA) de l’Université de la Nouvelle-Calédonie. Elle s’intègrera dans un des thèmes du laboratoire, à savoir “Observation, modélisation et simulation”.
Une attention particulière sera portée sur les candidats travaillant dans les domaines de la fouille de données, du big data et des modèles sous-jacents (graphes), et plus généralement de l’acquisition et du traitement de données. Le candidat devra montrer un intérêt pour la pluridisciplinarité et le développement de travaux se situant dans l’interface entre les sciences exactes et appliquées, le tout en lien avec les problématiques néo-calédoniennes, ultramarines et insulaires
Formation et compétences requises :
L’obtention de l’habilitation à diriger les recherches est souhaitée.
Adresse d’emploi :
Université de la Nouvelle Calédonie.
Nouméa – Nouvelle Calédonie
Document attaché : 202208270043_AVP MCF CNU 27 D.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : LISIC UR 4491 / ULCO
Durée : 1 an
Contact : gilles.roussel@univ-littoral.fr
Date limite de publication : 2022-10-28
Contexte :
Le LISIC est partie prenante dans l’élaboration d’un sujet scientifique partenarial dans le cadre d’un projet local. Il s’insère dans le projet de laboratoire sur les jumeaux numériques et s’inscrit dans les objectifs proposés en réponse à l’AAP “Projet de recherche et innovation” du Dialogue stratégique et de gestion du rectorat. Une spécification d’un outil numérique intégré a été défini au sein du du LISIC et repose sur l’idée d’un jumeau numérique appelé “Plateforme Numérique pour l’Urbain” couvrant différentes dimensions de surveillance de la qualité de l’air, de la simulation, du diagnostic de sources, de services aux usagers ou aux collectivités urbaines. Afin de participer au démarrage du projet, un chercheur Post Doc est sollicité afin de s’approprier les travaux existants et de les intégrer dans la plateforme spécifiée.
Sujet :
Les activités principales porteront sur les développements scientifiques et algorithmiques pour la mise en place d’une plateforme de simulation, l’observation et l’assimilation pour la cartographie de la qualité de l’air par des méthodes d’IA. Le ou la candidate sélectionnée développera deux modules et leurs mise en relation pour la réalisation d’un jumeau numérique réaliste de la qualité de l’air. Un des modules sera chargé de générer des mesures synthétiques de la qualité de l’air via un ou plusieurs modèles de simulation, actuellement développés ou utilisés au LISIC. Ces mesures pourront faire preuve d’indéterminations propres à toute chaîne d’acquisition (modèle de réponse de capteurs, dérive, valeurs aberrantes, etc). Pour le deuxième module, le ou la candidate sélectionnée étend des travaux d’assimilation/complétion de données développées au LISIC, en faisant appel à un formalisme de factorisation matricielle / tensorielle informée.
Profil du candidat :
Connaissances, savoir :
Solides bases en machine learning, data sciences.
Des connaissances en simulation, optimisation continue et/ou décompositions matricielles / tensorielles sont attendues.
Des connaissances en lien avec l’observation de la qualité de l’air seraient un plus.
Savoir faire : Le ou la candidate a une expérience validée par des publications scientifiques et/ou des déclarations d’invention :
– en simulation,
– en optimisation continue : descente de gradient (stochastique),
– distribution de calcul,
– apprentissage comprimé, etc
– en assimilation de données,
– et/ou en décomposition matricielle ou tensorielle.
Formation et compétences requises :
Thèse de doctorat en informatique ou en traitement du signal et des images ou en mathématiques appliquées ou en sciences de données. Des expériences applicatives dans le domaine des sciences de l’environnement seront un plus.
Adresse d’emploi :
LISIC, Univ. Littoral Côte d’Opale, Campus de Calais
Document attaché : 202209061352_Offre Post Doc LISIC 2023.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Laboratoire Parole et Langage
Durée : 12 mois
Contact : laurent.prevot@univ-amu.fr
Date limite de publication : 2022-10-28
Contexte :
L’objectif général du projet est d’utiliser les informations sémantiques riches fournies par la structure du discours pour améliorer les algorithmes de résumé automatique.
Un objectif central de SUMM-RE est de s’appuyer sur des travaux existants qui exploitent une faible supervision pour annoter automatiquement des ensembles de données pour la structure du discours en étendant ces méthodes au discours spontané et conversationnel.
Un deuxième objectif est de créer un corpus audio/vidéo de 100 heures d’interactions parlées, multipartites, de type réunion en français, qui sera utile aux chercheurs dans de nombreux domaines. Cet objectif est motivé non seulement par le manque général d’ensembles de données pour les tâches TAL en français, mais aussi par l’hypothèse centrale de SUMM-RE, selon laquelle les informations encodées dans les graphes de discours peuvent être exploitées pour améliorer le résumé automatique.
Sujet :
Le rôle de la personne recrutée sera de :
(i) Aider la curation des données brutes et des premières étapes de pré-traitement (détection parole / silence, transcription automatique) ;
(ii) préparer les données brutes en vue de leur diffusion à la communauté scientifique ;
(iii) Assurer la publication des données sur les entrepôts adaptés.
Profil du candidat :
Spécialiste dans l’analyse des données langagières.
Formation et compétences requises :
Master en Sciences des Données, Sciences du Langage, Sciences Cognitives
Compétences souhaitées:
– Expérience avec l’enregistrement et la gestion de données de parole et / ou comportementales ;
– Analyse d’erreurs / Annotation Manuelle / Evaluation des outils automatiques ;
– Data science (data wrangling, data viz…)
Compétences informatiques souhaitées:
– bash, python (notebooks)
Autres outils utilisés:
– SPPAS, praat, transcriber, elan
Adresse d’emploi :
5 avenue Pasteur, 13100 Aix-en-Provence
Offre en lien avec l’Action/le Réseau : – — –/Innovation
Laboratoire/Entreprise : LIS (Aix-Marseille université, UMR CNRS 7020), Ma
Durée : 6 mois
Contact : noel.novelli@lif.univ-mrs.fr
Date limite de publication : 2022-11-10
Contexte :
Les travaux seront menés dans le cadre du projet multipartenaire QualiHealth financé par l’ANR.
Sujet :
Le candidat participera à l’extension d’une plateforme de science des données dédiée à l’amélioration de la qualité des données de santé.
* Le candidat retenu travaillera au développement d’applications : refonte d’une application, implémentation de nouveau algorithmes sur des données de santé. Plus précisément, les principales missions sont :
— Refonte d’une application pour le profilage de la qualité des données (java);
— Refactoring de prototype (C++) ;
Intégration et interfaçage avec la plateforme de contrôle de la qualité des données de santé.
Profil du candidat :
BAC +5 en informatique
Expérience en développement java full stack et C++.
Formation et compétences requises :
BAC +5 en informatique
Compétences en programmation Python, C++ et java full stack
Compétences en campagne de tests.
Adresse d’emploi :
Faculté des Sciences de Luminy
LIS – Case 901
163 avenue de Luminy
F-13288 Marseille Cedex 9, France.
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : CRIStAL UMR 9189 / Centrale Lille Institut
Durée : 12 mois (renouvelabl
Contact : pierre.chainais@centralelille.fr
Date limite de publication : 2022-11-14
Contexte :
Un(e) Ingénieur•e d’étude en informatique pour le traitement du signal et le machine learning / Contractuel de recherche
Contexte du recrutement
Ce poste en CDD de 12 mois renouvelables au sein du laboratoire CRIStAL, Centre de Recherche en Informatique, Automatique et Signal de Lille (UMR 9189), est financé par l’ANR qui soutient la chaire en intelligence artificielle (IA) Sherlock portée par Pierre Chainais (2021-2025), professeur à Centrale Lille et membre de l’équipe SigMA, Signaux, Modèles et Applications. L’équipe SigMA est composée de 17 membres permanents (enseignants-chercheurs et chercheurs CNRS) et de 18 doctorants et post-doctorants et offre un environnement scientifique stimulant et de haut niveau.
Prise de fonction : 1er Octobre 2022
Catégorie : A
Contractuel CDD CDI
Quotité : 100%
Affectation : CRIStAL, Centre de Recherche en Informatique, Automatique et Signal de Lille (UMR 9189)
Supérieur Hiérarchique : Pierre CHAINAIS
Niveau requis : M2 ou ingénieur•e avec une spécialité en informatique, traitement du signal et des images, ou machine learning.
Rémunération : 2000 à 2500€/mois nets
Durée du contrat : 12 mois renouvelable
Contact Recherche : Pierre Chainais, pierre.chainais@centralelille.fr
Contact Administratif : Pôle des Ressources Humaines : pole.rh@centralelille.fr
Sujet :
Le projet de recherche de la chaire IA Sherlock porte sur « Fast inference with controlled uncertainty : application to astrophysical observations ». Il inclut le développement et l’implémentation de différentes méthodes d’inférence en traitement du signal et machine learning, incluant des approches d’apprentissage profond. Les applications visées concernant la résolution de problèmes inverses en traitement du signal et des images, en particulier en lien avec l’astrophysique. La complexité et le coût de calcul de ces méthodes augmente potentiellement très vite lorsque l’on travaille avec de grandes masses de données ou sur des problèmes en grande dimension. Nous concevons de nouvelles méthodes et algorithmes qui ont pour objectif de limiter ces coûts ou de les répartir sur des unités de calculs multiples grâce au calcul distribué.
Nous travaillons en particulier sur des approches d’inférence bayésienne, allant de l’optimisation déterministe à l’apprentissage bayésien profond, en passant par les méthodes de Monte Carlo par chaînes de Markov (MCMC). Une attention spécifique est portée à la parallélisation des calculs et la distribution des données sur plusieurs nœuds de calculs (CPU et/ou GPU).
Au-delà de l’estimation ponctuelle de paramètres, nous nous intéressons à la quantification des incertitudes. Il s’agit d’un enjeu crucial pour garantir la qualité des prédictions, notamment en l’absence de vérité terrain comme en astrophysique par exemple. L’estimation de la distribution d’un estimateur se traduit le plus souvent par le recours à des méthodes d’échantillonnage telles que les méthodes de Monte Carlo par chaînes de Markov (MCMC). Ces méthodes étant réputées coûteuses en temps de calcul, nous développons de nouvelles méthodes qui ouvrent la voie à la parallélisation/distribution des algorithmes associés. Nous étudions aussi des approches alternatives aux méthodes MCMC en exploitant notamment le potentiel de l’apprentissage profond (deep learning) et du transport optimal.
L’ingénieur•e recruté•e sera chargé•e du développement de codes parallélisés/distribués permettant d’accélérer les calculs. Il/elle devra respecter une logique de recherche reproductible et de logiciel libre favorisant une diffusion publique large des codes produits. Il/elle sera chargé•e d’accompagner les membres de l’équipe SigMA via des actions de formation internes en vue de partager ses connaissances avec l’équipe. Il/elle contribuera activement aux activités de recherche dans une logique de collaboration active. Ce CDD pourra éventuellement servir de tremplin à une poursuite en thèse de doctorat.
Candidatures : envoyer CV détaillé, diplômes, relevés de notes des 2 dernières années Bac+4/+5 ; rapport de stage de fin d’étude si disponible ; 2 lettres de recommandation ; si titulaire d’un doctorat, joindre les rapports sur le manuscrit et la soutenance.
Candidature à transmettre à : pole.rh@centralelille.fr et pierre.chainais@centralelille.fr
Profil du candidat :
Candidats juniors (sortie d’école d’ingénieurs ou de master) bienvenus. Une poursuite en thèse pourrait être envisagée.
Formation et compétences requises :
Connaissances/compétences
Langages : Python et/ou C++ et/ou techniques de parallélisation CPU (OpenMP, MPI). Des connaissances en parallélisation GPU (par exemple Cuda, OpenCL, …) seraient un plus. Une période d’auto-formation complémentaire pourra être envisagée en complément.
Niveau d’Anglais requis : B2
Compétences opérationnelles :
Bonne culture en tratiement du signal/image et/ou en machine learning. Bonnes pratiques du développement collaboratif. Bonnes compétences rédactionnelles en vue de la réalisation de documents techniques (documentation de code).
Compétences comportementales :
Bonnes qualités de communication
Adresse d’emploi :
Centrale Lille Institut
Cité scientifique
CS 20048
59651 Villeneuve d’Ascq cedex
FRANCE
Contact Recherche : Pierre Chainais, pierre.chainais@centralelille.fr
Contact Administratif : Pôle des Ressources Humaines : pole.rh@centralelille.fr
Document attaché : 202207181305_annonce_ingenieur_informatique_2022_Sherlock_juillet2022.pdf
Offre en lien avec l’Action/le Réseau : – — –/Doctorants
Laboratoire/Entreprise : Université Paris-Saclay
Durée : 1 an
Contact : francesca.fiorenzi@universite-paris-saclay.fr
Date limite de publication : 2022-11-15
Contexte :
L’IUT d’Orsay recrute un CDD à temps plein (384h ETD) et un CDD à mi-temps (192h ETD) en informatique (le démarrage des contrats peut-être immédiat).
Sujet :
L’enseignement devra s’effectuer au sein du département informatique de l’IUT dans le BUT informatique (1ère et 2ème année).
Profil du candidat :
Expérience d’enseignement
Formation et compétences requises :
Les compétences recherchées sont de préférence dans un ou plusieurs des domaines suivants : bases de données, Java, IHM, programmation Web, qualité du développement et tests.
Pour plus de renseignements concernant les enseignements et pour candidater, les intéressés peuvent s’adresser à :
Banafsheh Farang-Hariri
et
Francesca Fiorenzi
Adresse d’emploi :
IUT D’Orsay – 13 avenue des Sciences – 91190 Gif-sur-Yvette
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Mines Saint-Etienne
Durée : 12 mois
Contact : batton@emse.fr
Date limite de publication : 2022-11-15
Contexte :
Mines Saint-Etienne recrute un Maître Assistant Associé (équivalent post-doc) pour 12 mois en sciences des données ‘Apprentissage statistique et aide à la décision pour l’industrie et les territoires du futur’. Le poste proposé est ouvert au sein du département GMI (Génie Mathématique et Industriel) avec des activités de recherche développées dans les axes SIC ou MAAD de l’UMR CNRS 6158 LIMOS.
Sujet :
La mission de recherche consiste à développer des travaux en lien avec l’un ou plusieurs de ces domaines : probabilités, statistiques, sciences de données, méta-modélisation pour l’estimation. Il est notamment attendu le développement d’approches en modélisation mathématique pour l’aide à la décision par processus aléatoires discrets ou continus en science des données.
La mission d’enseignement consiste à assurer des cours, des travaux dirigés et pratiques dans l’enseignement des mathématiques réalisé en formation initiale du cycle Ingénieur Civil des Mines (ICM) dans les domaines des méthodes numériques, probabilités et statistiques, science des données,
Profil du candidat :
Le candidat ou la candidate, titulaire d’un doctorat Mathématiques appliquées ou en Science des données (sections CNU n°26, n°61, n°24),
Formation et compétences requises :
Des compétences fortes dans le domaine des sciences de données et de l’apprentissage statistique, de l’aide à la décision. Ces compétences pourront intégrer la modélisation statistique de processus discrets et/ou continus, des approches fonctionnelles en science de données, des approches d’optimisation décisionnelle liées aux méthodes par renforcement ou de l’optimisation continue sous incertitude.
Adresse d’emploi :
Ces missions s’exerceront sur le Campus de Saint-Etienne (42) de Mines Saint-Etienne.
Document attaché : 202210281537_FAYOL_Maître_assistant_2022_sciences_des_données-FR v2.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Unité de Recherche LIST3N (Laboratoire Informatiqu
Durée : 12 mois
Contact : babiga.birregah@utt.fr
Date limite de publication : 2022-11-30
Contexte :
Le DataLab-UTT du Laboratoire Informatique et Société Numérique (LIST3N) de l’Université de Technologie de Troyes travaille sur la conception d’Analytics pour la valorisation des données de gestion de projet de certains de ses partenaires industriels. L’objectif est d’améliorer les performances du pilotage de projet par l’analyse temps réel des Logs d’activités.
Nous cherchons à recruter un(e) ingénieur(e) ou un Post-doc en Data Mining pour traiter les logs de cycle d’activités de projets industriels.
Sujet :
La mission consiste à construire un Data pipeline adapté aux problématiques d’exploration des logs de suivi de projets et à proposer des indicateurs de performance pour la détection précoce des divergences.
Du point de vue mathématique, il s’agit de modéliser les données et de construire des algorithmes de détection d’anomalies et de tracking de parterns d’intérêt.
La/le candidat(e) travaillera en étroite collaboration avec nos partenaires industriels sur le projet ainsi qu’avec les chercheurs du DataLab.
Profil du candidat :
La ou le candidat(e) retenu(e) travaillera sur l’analyse des logs de cycles de vie de projets. Elle/il devra avoir:
• une bonne capacité à interagir avec les équipes métiers et les acteurs du projet
• des connaissances en modélisation de données et leur gestion (Spark, AWS, etc.)
• de solides compétences et une bonne expérience en Data Mining avec Python (statistiques, Machine Learning, etc.)
• et de bonnes dispositions à évoluer en mode projet (outils Slack ou Bitbocket ou Trello ou GitHub, etc.)
Formation et compétences requises :
Doctorat en Mathématiques Appliquées ou en Informatique ou en Data science avec ou sans expérience professionnelle.
Adresse d’emploi :
Université de Technologie de Troyes*
12, rue Marie Curie
CS 42060 – 10004 Troyes Cedex
*Des missions en région parisienne auprès de nos partenaires sont à prévoir. Ces missions seront prises en charge par l’université.
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Unité de Biostatistique et Processus Spatiaux, INR
Durée : 18 mois
Contact : stephane.girard@inria.fr
Date limite de publication : 2022-11-30
Contexte :
Ce travail de postdoc sera réalisé au sein du projet ANOVEX, financé par Inria et INRAE pour renforcer leurs collaborations autour des risques environnementaux. Les outils statistiques d’analyse multivariée (p. ex. analyse de variance multivariée, analyse de sensibilité, analyse en composantes principales, arbres de décision) sont indispensables pour extraire des structures interprétables à partir de jeux de données complexes, souvent dans une visée de réduction de dimension et de
représentation parcimonieuse du système étudié, et pour construire et valider des modèles statistiques robustes pour la prédiction. Ces outils aident à mieux expliquer et prédire les systèmes à multiples composantes, comme le système climatique ou les risques multiples. Or, les approches classiques exploitent principalement les moyennes et les covariances des variables mesurées, mais sont peu adaptées à des analyses multifactorielles des valeurs extrêmes, souvent associées aux impacts les plus sévères. Ce projet propose des avancées méthodologiques et des implémentations numériques pour adapter ces approches au cadre des événements extrêmes. Dans les applications visées, ces nouveaux outils permettront de mieux caractériser les différences dans les événements extrêmes entre les simulations des différents modèles
climatiques, entre observations et simulations, et de mieux comprendre la sensibilité du risque des feux de forêt aux variables météorologiques à différentes échelles spatio-temporelles. Pour mesurer le risque incendie,
les variables météorologiques sont souvent utilisées en entrée de modèles numériques complexes représentant des processus physiques ou des corrélations statistiques, ou en entrée d’autres algorithmes à construction plus heuristique. Les indicateurs météorologiques du danger de feux de forêt, comme le « Fire Weather Index » (FWI), constituent un très bon exemple. La sensibilité de ces familles d’indicateurs aux événements extrêmes dans le système température-précipitation-humidité-vent, dont les variations d’effectuent dans différentes échelles spatio-temporelles, est encore mal comprise.
Sujet :
Un objectif clé sera de développer des nouvelles représentations mathématiques pour les mesures de risque extrême dans les systèmes multivariables et multi-échelle, afin de pouvoir utiliser les opérations
matricielles classiques, applicables en grande dimension. Une réflexion générale sera à mener sur les approches de réduction de dimension les plus pertinentes pour les événements extrêmes dans des systèmes complexes impliquant de nombreuses variables dépendantes. Dans le volet appliqué, nous ambitionnons une meilleure connaissance des structures des événements extrêmes dans le système climatique en France et en Europe, de leur hétérogénéité spatiale, de leur évolution temporelle sous changement climatique, et de leur impact sur les risques encourus dans les territoires.
Profil du candidat :
Des bonnes connaissances théoriques dans au moins un des trois domaines suivants sont requises : statistique des valeurs extrêmes ; analyse multivariée ; mesures de risque. La programmation en R est également demandée. Des connaissances en sciences du climat seront un atout.
Formation et compétences requises :
Doctorat. Merci d’envoyer un CV (avec la liste des productions scientifiques) et une lettre de motivation, et d’indiquer les coordonnées d’un ou deux encadrant(e)s disposé(e)s à fournir une lettre de recommandation.
Adresse d’emploi :
Unité de Biostatistique et Processus Spatiaux, INRAE Avignon,
Domaine Saint-Paul – Site Agroparc, 228 Rte de l’Aérodrome CS 40509, 84914 Avignon Cedex 9
Document attaché : 202209161207_offre-postdoc-ANOVEX.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : MINES Saint-Étienne
Durée : 18 mois
Contact : maxime.lefrancois@emse.fr
Date limite de publication : 2022-12-01
Contexte :
Annonce formatée: https://ci.mines-stetienne.fr/jobs/2023-ETSI-SAREF-STF.html
About us
The MINES Saint-Étienne, founded in 1816, is a member of the Institut Mines-Télécom – France’s leading group of engineering and management grandes écoles, positioned on the major changes of the 21st century: digital, environmental and energy, industrial and educational transformations.
Saint-Etienne is a welcoming and dynamic city with a wide range of leisure activities (various sports, national drama centre, opera, city of design…), at the gateway to nature (Pilat massif, Loire gorges…) but with quick access to major cities (less than an hour from Lyon and three hours from Paris by TGV).
The Henri Fayol Institute, one of the school’s 5 training and research centers, brings together professors in industrial engineering, applied mathematics, computer science, environment and management around the theme of overall business performance. The Henri Fayol Institute is strongly involved in flagship projects of the Industry of the Future and the City of the Future.
About SAREF
IoT fragmentation is one of the main threats to the adoption of IoT technologies on a large scale. To overcome this, the current fragmented landscape of IoT technologies requires standardised interfaces and data models to ensure interoperability.
To cope with this, the European Commission has promoted the SAREF ontology in collaboration with ETSI SmartM2M TC since 2014 with the goal of providing and maintaining a common data model over time to ensure interoperability. The SAREF ontology is a reference data model enriched with formal semantics, intended to enable interoperability between solutions from different providers and among various activity sectors in the IoT, thus contributing to the development of the global digital market. The development of SAREF is a collaborative effort that involves many experts from different European institutions, including MINES Saint-Étienne.
Over time, SAREF has evolved into a suite of ontologies that includes a general-purpose ontology (i.e., SAREF core, which is currently in its third release), 11 extensions, and an ontology pattern. It further defines a clear workflow for development and versioning and provides a portal to its user community for documentation and collaborative development.
SAREF is documented at a public portal and open source. The SAREF development framework and workflow has been specified [ETSI TS 103 673] and the SAREF pipeline software is used for its continuous integration and deployment.
Sujet :
Objectives of the fellowship
You will become an essential contributor to the scientific development of two Specialist Task Forces funded by ETSI, with the macro-objective to support the usability and adoption of SAREF. More in details, our main objectives are to harmonize and facilitate the use of SAREF by:
Identifying the potential SAREF ontology patterns that can be leveraged to homogeneise the way SAREF extensions are defined;
Consolidating the SAREF suite of ontologies (i.e., SAREF core and its extensions) using these patterns;
Augmenting the SAREF Development Framework and Workflow [ETSI TS 103 673] to account for these ontology patterns;
Enhancing the SAREF pipeline that is used for the continuous integration and deployment of SAREF;
Adding functionnalities to the SAREF public portal to browse ontology patterns and their instances.
Profil du candidat :
postdoc
Formation et compétences requises :
This postdoc position requires good knowledge in semantic web technologies, good specification writing skills, ability to participate and report in international projects, and some level of coding skills (java/python, front-end development, devops).
Adresse d’emploi :
MINES Saint-Étienne
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : MINES Saint-Étienne
Durée : 18 mois
Contact : maxime.lefrancois@emse.fr
Date limite de publication : 2022-12-01
Contexte :
Annonce formatée: https://ci.mines-stetienne.fr/jobs/2023-Digital-Twin.html
About us
The MINES Saint-Étienne, founded in 1816, is a member of the Institut Mines-Télécom – France’s leading group of engineering and management grandes écoles, positioned on the major changes of the 21st century: digital, environmental and energy, industrial and educational transformations.
Saint-Etienne is a welcoming and dynamic city with a wide range of leisure activities (various sports, national drama centre, opera, city of design…), at the gateway to nature (Pilat massif, Loire gorges…) but with quick access to major cities (less than an hour from Lyon and three hours from Paris by TGV).
The Henri Fayol Institute, one of the school’s 5 training and research centers, brings together professors in industrial engineering, applied mathematics, computer science, environment and management around the theme of overall business performance. The Henri Fayol Institute is strongly involved in flagship projects of the Industry of the Future and the City of the Future.
Sujet :
About our building’s Digital Twin
The Espace Fauriel building (EF) of Mines Saint-Étienne, built around 1920 by Manufrance and renovated in 1994, is a building of 6720 m2 on 8 levels used for research and teaching at Mines Saint-Étienne. It includes lecture halls and classrooms, offices, meeting rooms, and a simulation of a factory of the future: the IT’M Factory Platform.
We develop the EF building’s digital twin, rising through the Building Information Model (BIM) maturity levels by Bew and Richards [1], and the digital twin maturity levels by Deng, Menassa, and Kamat [2]:
BIM maturity level 2 consists in manipulating a standard representation of digital mock-ups (e.g. IFC Industry Foundation Classes), and standard libraries for object properties (Property sets) for thermal conductivity for example. The EF building model is available in IFC and RVT format.
BIM maturity level 3 positions the Web as an information exchange medium to enable collaborative workflows between interdisciplinary stakeholders, and the use of interoperable, flexible and open standards covering different domains. Developments in the Web of Data domains enable the integration, linking, and tracking of distributed data. We are developing a knowledge graph describing our building and the deployed IoT devices with standard ontologies.
The BIM corresponds to the Digital Twin maturity level 1. Level 2 adds simulations based on the digital model. We have developed a thermal model of the building, allowing to simulate the evolution of the temperature of a room according to the temperatures of the adjacent rooms and the heating systems. This thermal model is executable in the form of a Functional Mock-up unit, and is intended to be published as an executable service in the Territory Platform.
Digital Twin maturity level 3 consists in instrumenting the building and giving access to the data of the instruments through the digital twin. We log and make available the data captured by a few dozen heterogeneous communicating objects (WiFi, Bluetooth, Zigbee, LoRa) inside and outside the building, as well as the KNX installation of the building. In particular, the following data are collected: temperature, status of the heating and ventilation systems, status of window openings. The opening of some windows can also be controlled remotely. The parameters of the thermal model are learned from these captured data, and linked with the parameters of the digital building model in the building knowledge model.
All these works make the EF building and its Digital Twin a solid basis for future courses and research works in AI (maturity level 4), for example to reconcile antagonistic objectives of health management, user comfort, and energy efficiency of the building, which brings an ethical dimension related to the UN sustainable development goals (7, 11 and 13).
Profil du candidat :
M2, Engineer, or Ph.D. in Computer Science
Formation et compétences requises :
With a M2 level, Engineer degree, or Ph.D. in Computer Science, you will become an essential contributor to the development of our building’s Digital Twin. You can rely on and improve a wide spectrum of computer engineering skills: Visualization and interaction with the BIM model of our building, development and management of our IoT infrastructure, management of our building knowledge graph, to cite just a few.
Interviews may be conducted starting November, with the objective to fill the position early 2023.
Adresse d’emploi :
To apply, please send your CV, cover letter, and any other useful information, to: https://institutminestelecom.recruitee.com/o/postdoctoral-research-and-development-position-on-a-buildings-digital-twin-18-months-saintetienne.
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : MINES Saint-Étienne
Durée : 28 mois
Contact : maxime.lefrancois@emse.fr
Date limite de publication : 2022-12-01
Contexte :
Annonce formatée: https://ci.mines-stetienne.fr/jobs/2023-OMEGA-X-ENERSHARE-Postdoc.html
About us
The MINES Saint-Étienne, founded in 1816, is a member of the Institut Mines-Télécom – France’s leading group of engineering and management grandes écoles, positioned on the major changes of the 21st century: digital, environmental and energy, industrial and educational transformations.
Saint-Etienne is a welcoming and dynamic city with a wide range of leisure activities (various sports, national drama centre, opera, city of design…), at the gateway to nature (Pilat massif, Loire gorges…) but with quick access to major cities (less than an hour from Lyon and three hours from Paris by TGV).
The Henri Fayol Institute, one of the school’s 5 training and research centers, brings together professors in industrial engineering, applied mathematics, computer science, environment and management around the theme of overall business performance. The Henri Fayol Institute is strongly involved in flagship projects of the Industry of the Future and the City of the Future.
About the OMEGA-X and ENERSHARE projects
The OMEGA-X and ENERSHARE projects are two EU HORIZON projects funded by call HORIZON-CL5-2021-D3-01-01: “Establish the grounds for a common European energy Data Space”. These projects are part of the European Digital Strategy on Data, Cloud and Artificial Intelligence.
OMEGA-X (Orchestrating an interoperable sovereign federated Multi-vector Energy Data Space built on open standards and ready for GAia-X) involves 31 partners in 11 countries;
ENERSHARE (European Common Energy Data Space Framework Enabling Data Sharing-Driven Across- and Beyond- Energy Services) involves 30 partners in 12 countries.
EDF R&D is involved in both projects, and requested help from the Henri Fayol Institute of MINES Saint-Étienne to contribute to tasks related to the evaluation, development, and standardisation of energy ontologies. Our objective, in collaboration with partners of OMEGA-X and ENERSHARE, in liaison with sister projects of the European BRIDGE initiative, is to contribute through standardisation bodies to the convergence of energy ontologies. The ultimate goal is to establish the data management grounds for a common European energy Data Space:
Higher degree of interoperability between data platforms.
Energy data made available and re-usable.
Sujet :
Objectives of the fellowship
You will become an essential contributor to the scientific development of each project, especially regarding the evaluation, development, and standardisation of energy ontologies. More specifically:
You will interact with the different work packages and tasks, under the guidance of EDF R&D.
You will contribute to the analysis of existing data models under the prim of the existing project use cases, under the guidance of MINES Saint-Étienne
You will contribute to the writing or reviewing of deliverables for the project, under the guidance of EDF R&D.
You will participate to relevant technical committees in standardisation bodies, and contribute to the definition of a common data model for the Energy Data Space, under the guidance of MINES Saint-Étienne and EDF R&D.
Besides, you will interact with the different members of the Computer Science and Intelligent Systems department at MINES Saint-Étienne, and EDF R&D.
Profil du candidat :
The candidate shall own a PhD in Computer Science, have good knowledge in the Ontology Engineering and the Energy domai
Formation et compétences requises :
The candidate shall own a PhD in Computer Science, have good knowledge in the Ontology Engineering and the Energy domai
Adresse d’emploi :
To apply, please send your CV, cover letter, and any other useful information, to: https://institutminestelecom.recruitee.com/o/postdoctoral-fellowship-on-european-energy-data-space-projects-with-edf-rd-28-months.
Offre en lien avec l’Action/le Réseau : BigData4Astro/– — –
Laboratoire/Entreprise : GREYC
Durée : jusqu’au 30 Juin 2
Contact : abderrahim.elmoataz-billah@unicaen.fr
Date limite de publication : 2022-12-01
Contexte :
Mots-clés : Traitement d’images, Imagerie médicale microscopique, Apprentissage semi-supervisée, EDPs sur Graphes pour l’apprentissage, Apprentissage profond par réseaux de neurones.
Sujet :
Avec un très grand nombre de nouveaux cas et de décès par an en Europe et dans le Monde, le cancer reste un problème majeur de santé public. Les enjeux de la mise au point d’outils numériques d’aide à la décision pour le dépistage, l’amélioration des diagnostics des cancers sont énormes en termes de fiabilité médicale au bénéfice du malade et en termes d’économie de santé.
Profil du candidat :
Le travail du Post-doctorant s’inscrit dans e cadre du projet intitulé MIcrospie Digitale en anatomie et cytologie PATHologique (MIDIPATH) qui a pour objectif le développement d’outils numériques innovants pour permettre aux médecins anatomopathologistes une aide fiable au diagnostic et pronostic en cancérologie.
Nous souhaitons développer de nouveaux algorithmes, pour détecter, reconnaître et compter les cellules tumorales ou des éléments rares caractérisant des lésions cancéreuses ou précancéreuses en imagerie microscopique grand champs. Les méthodes privilégiées seront liées à l’apprentissage semi-supervisée par EDPs sur graphes ou par réseaux de neurones profonds sur Graphes.
L’objectif sera de concevoir des outils logiciels et en permettre l’utilisation dans le domaine de l’aide au diagnostic et au dépistage des cancers.
Formation et compétences requises :
Le Candidat doit avoir une thèse de doctorat avec des compétences en traitement d’images ou apprentissage de données images. La candidature doit être envoyée par mail, en y incluant un CV et une lettre de motivation.
Adresse d’emploi :
Groupe de Recherche en Informatique, Image, Automatique et Instrumentation de Caen,
6 Boulevard Maréchal Juin, F-14050 CAEN Cedex
Document attaché : 202111260920_Post_doctorant_Midipath.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Laboratoire Hubert Curien – Université de Saint-Et
Durée : 18 mois
Contact : Francois.Jacquenet@univ-st-etienne.fr
Date limite de publication : 2022-12-02
Contexte :
Dans le cadre du projet R&D Booster qaBot : Question Answering et Chatbot, réunissant les entreprises The QACompany, Wikit et le laboratoire Hubert Curien, nous recrutons un.e post-doc ou ingénieur.e de recherche pour une durée de 18 mois.
Les agents conversationnels (chatbots) sont de plus en plus utilisés dans tous les secteurs pour fournir une assistance rapide et bon marché aux utilisateurs. En adressant une question, l’utilisateur exprime son intention ; celle-ci est reconnue parmi une liste d’intentions du système qui donne alors sa réponse à l’utilisateur. A l’instar de tout système expert, cette technique a pour avantage de fournir des réponses précises car préparées. L’inconvénient est de nécessiter un temps important de conception et de maintenance des scénarios conversationnels avec les intentions associées. Les systèmes de questions-réponses (Question Answering, QA) sont apparus très récemment, en particulier pour interroger des bases de documents. L’utilisateur adresse sa question, et le système répond en sélectionnant un document et en y identifiant le texte répondant à la question. La technique des systèmes de QA nécessite moins d’effort de conception spécifique, mais elle nécessite actuellement des ressources d’entraînement très volumineuses (questions et réponses dans les documents) qui limite son adoption au-delà des très grosses bases telles que Wikipedia et pour l’anglais.
Le projet qaBot est axé sur le traitement automatique du langage naturel (NLP) et l’apprentissage profond (Deep Learning). Son objectif est d’amener sur le marché une approche mixte combinant la technologie de Chatbot – apportée par l’entreprise lyonnaise Wikit – et celle de Questions-Réponses sur des documents – élaborée par The QA Company. Le volet scientifique et académique du programme est sous la direction du laboratoire Hubert Curien (avec en tutelles principales l’Université de Saint-Étienne et le CNRS).
Sujet :
La personne recrutée devra s’investir principalement sur le soutien scientifique au projet sur les volets de l’entraînement des modèles, pour des données spécifiques et peu volumineuses (régimes few shots), l’étude et la synthèse des travaux récents, et l’implémentation/l’évaluation de celles-ci. Plus spécifiquement les verrous scientifiques identifiés sont :
* Concevoir une architecture neuronale performante avec des ensembles de données d’entraînement frugaux (few-shots) pour la tâche d’extraction de réponse à base de question (extractive question answering) sur des domaines spécifiques
* Définir des métriques pour évaluer les chatbots créés. Ces métriques seront utilisées pour évaluer les systèmes pendant la durée du projet.
* Adaptation rapide des modèles linguistiques existants sur des langues non anglaises.
* Adapter le système à des corpus de textes dans des formats spécifiques (comme par exemple pdf ou sites Web)
Profil du candidat :
Le/la candidat.e doit posséder des compétences solides en Apprentissage Automatique (conception de modèles, maîtrise des framework d’apprentissage deep tels que PyTorch/TensorFlow), mais aussi des compétences avancées en Python, une forte appétence pour les données textuelles, le question answering et les Modèles de Langues dits Larges (BERT, PaLM), ainsi que le surapprentissage et l’application de ces derniers (Notamment via HuggingFace).
Formation et compétences requises :
Doctorat ou Master spécialité Machine Learning et plus particulièrement Natural Language Processing
Adresse d’emploi :
Le lieu d’accueil est le laboratoire Hubert Curien, unité mixte de recherche (UMR 5516) de l’Université Jean Monnet de Saint-Etienne, du Centre National de la Recherche Scientifique (CNRS) et de l’Institut d’Optique Graduate School. Il est composé d’environ 90 chercheurs, professeurs et maîtres de conférences, 20 ingénieurs et personnels administratifs et 130 doctorants et post-doctorants. Nos activités de recherche sont organisées selon deux départements scientifiques : Optique, photonique et surfaces et Informatique, sécurité, image. L’équipe Data Intelligence, au sein de laquelle la personne recrutée travaillera, est spécialisée dans le domaine du Machine Learning
Le salaire est modulable en fonction de l’expérience du/de la candidat.e. La personne recrutée aura accès à un poste de travail avec un ordinateur permettant l’utilisation du cluster de calcul du laboratoire. Le début du contrat est prévu pour début Janvier 2023. Le laboratoire se situe sur le même campus que la société The QA Company, facilitant ainsi les échanges avec les chercheurs et le doctorant de la société impliqués dans le projet.
Pour candidater, merci d’envoyer à antoine.gourru@univ-st-etienne.fr et francois.jacquenet@univ-st-etienne.fr : un CV détaillé et une lettre de motivation, tout cela le plus rapidement possible.
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : IRIMAS, MSD team
Durée : 6 months
Contact : maxime.devanne@uha.fr
Date limite de publication : 2022-12-31
Contexte :
Human motion analysis is crucial for studying people and understanding how they behave, communicate and interact with real world environments. Due to the complex nature of body movements as well as the high cost of motion capture systems, acquisition of human motion is not straightforward and thus constraints data production. Hopefully, recent approaches estimating human poses from videos offer new opportunities to analyze skeleton-based human motion. While skeleton-based human motion analysis has been extensively studied for behavior understanding like action recognition, some efforts are yet to be done for the task of human motion generation. Particularly, the automatic generation of motion sequences is beneficial for rapidly increasing the amount of data and improving Deep Learning-based analysis algorithms.
Since several years, new image generation paradigms have been possible thanks to the appearance of Generative Adversarial Networks (GAN) which have proved to be extremely efficient for many image generation tasks and human posture estimation. Although these networks are very efficient, their explainability and control still remain challenging tasks. Differently, other generative models have also emerged by considering the data distribution during training like Variational AutoEncoder (VAE) and Diffusion models.
First work addressing deep generative models for human motion have considered motion capture (mocap) data allowing to accurately extract body parts positions along the time. Hence, aforementioned generative architectures have been successively employed for generating mocap-based human motion sequences.
Differently, we consider noisy skeleton data estimated from videos as it is easily applicable in real-world scenarios for the general public
Sujet :
The goal of this internship is to provide guidelines in building deep generative models for skeleton-based human motion sequences. Inspiring from recent effective Deep Learning-based approaches, the aim is to generate full skeleton-based motion sequences without access to successive poses as prior information as it can be done in prediction tasks. It is therefore crucial to investigate how deep generative models can handle such noisy and possibly incomplete data in order to generate novel motion sequences as natural and variable as possible.
In particular, the candidate will work on the following tasks:
– Deep Learning architectures for skeleton-based human motion: investigation and assessment of the influence of different deep network architectures for capturing complex human motion features. Particularly, the goal of this task is to theoretically and empirically analyze the performance of existing architectures like CNN, RNN GCN and Transformers for modeling skeleton-based human motion.
– Deep generative models adapted to skeleton data: based on studies from the previous task, the goal is to build generative models upon the previously identified meaningful spaces where skeleton sequences are represented. Therefore, the candidate will investigate different generative models, like GAN, VAE and Diffusion models, in order to propose and develop a complete Deep Learning model for generating skeleton-based human motions.
– Evaluation of deep generative models: in order to validate the proposed model, experimental evaluation is crucial. In comparison to motion recognition where classification accuracy is a natural way to assess an approach, evaluating the task of motion generation is not as straightforward. Dedicated metrics evaluating both naturalness and diversity of generated sequences as well as the impact of new generated sequences in a classification task will be considered.
Profil du candidat :
The candidate must fit the following requirements:
– Registered in Master 2 or last year of Engineering School (or equivalent) in Computer Science
– Advanced skills in Python programming are mandatory
– Good skills in Machine Learning & Deep Learning using related libraries (scikit-learn, Tensorflow, Pytorch, etc.) are required
– Knowledge and/or a first experience in human motion analysis will be appreciated
Formation et compétences requises :
The candidate must fit the following requirements:
– Registered in Master 2 or last year of Engineering School (or equivalent) in Computer Science
– Advanced skills in Python programming are mandatory
– Good skills in Machine Learning & Deep Learning using related libraries (scikit-learn, Tensorflow, Pytorch, etc.) are required
– Knowledge and/or a first experience in human motion analysis will be appreciated
Adresse d’emploi :
The proposed internship will be carried out within the MSD (Modeling and Data Science) team from the IRIMAS Institute. It will be part of the ANR DELEGATION (https://maxime-devanne.com/delegation/)
IRIMAS, Université de Haute Alsace, Rue des Frères Lumière, 68093 Mulhouse
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : IRIT
Durée : 12 mois
Contact : pascal.dayre@irit.fr
Date limite de publication : 2022-12-31
Contexte :
Dans le cadre du projet ANR So-DRIIHM, vous interviendrez dans le développement d’une plateforme pour la science ouverte. La science ouverte est un mouvement dans la continuité de ll’open-data pour l’ouverture et le partage des productions de la recherche comme les données, les publications et les codes à la communauté scientifique et plus largement à la société.
Vous êtes intéressé.e par les technologies de l’internet et du web sémantique.
Sujet :
Il s’agit de travailler sur la base de données sémantique d’une plateforme d’accès aux ressources de la science ouverte.
Vous interviendrez sur la modélisation et la gestion de la base de données et l’exposition du graphe de connaissance correspondant pour être consommé par les services de la plateforme.
• Administration d’un sparql endpoint (graphDB)
• Gestion de la base de données des métadonnées de la plateforme
• Importation de données sémantiques (ETL)
• Modélisation de base de données sémantiques graphes
• Exposition d’un graphe de connaissance selon une API REST
• API REST
• Ecriture de programme python de test des API
• Tests automatiques de non régression
• Documentation
• Collaboration avec des développeurs full stack
Profil du candidat :
Bac+5 ou forte compétence reconnue par des contributions actives à des logiciels libres relatif au sujet de ce poste
Formation et compétences requises :
• Formation de développement informatique ou une expérience de développement reconnue
• Formation en base de données
• Formation en web des données : connaissance des bases de données graphes et du web des données (RDF/RDFS, OWL, sparQL)
• Expérience en Python, en javascript, en shell
• Connaissance des bases de données graphes et du web des données (RDF/RDFS, OWL, sparQL)
• Connaissance d’une méthodologie de développement logiciel
• Savoir lire et comprendre les spécifications du W3C
• Curieux.se , Motivé.e pour apprendre
• Intéressé.e par le mouvement du logiciel libre, de la science ouverte
Adresse d’emploi :
Vous serez accueilli.e à l’IRIT, l’Institut de Recherche en Informatique de Toulouse (118 route de
Narbonne 31062 TOULOUSE CEDEX 9) pour développer la base de connaissance d’une
plateforme internet de recherche, d’accès et de publication de données d’observations socio-
environnementales pour une large communauté interdisciplinaire de recherche.
