Post-doc position – Representing and enriching events in knowledge graphs

Offre en lien avec l’Action/le Réseau : RoCED/– — –

Laboratoire/Entreprise : IRIT
Durée : 24 mois
Contact : hernande@irit.fr
Date limite de publication : 2022-07-18

Contexte :
An event is defined as “anything that happens, anything that fits over time”: meetings, phone calls, purchases, but also business buyouts, change of management, health crises, etc. The events are shared at through various communication channels that can be private (internal documentation, emails, Slack, Teams, phone, etc.) or public (press, Twitter, Facebook, etc.). Knowledge of these events is essential for humans to make decisions which themselves will have an impact on future events. Many innovative applications can benefit or even emerge from a technology capable of extracting events from various sources, representing them, aggregating them and exploiting them to predict future events. We can for example cite: anticipating demand for sanitary products, the supervision of cultural, advertising or festive events, but also the study of competition, the study of commercial markets, etc. .

One of the main obstacles to the deployment of these applications is the excessively high cost of their development when it is carried out on an ad hoc basis by competing players. The XP-Event project proposes to respond to this difficulty by setting up a common base for all the applications organized around the notion of event. This project is led by a consortium naturally formed by two companies (GeoTrend and Emvista) and a research team from the IRIT laboratory sharing this vision and each having significant scientific and technological heritage in the field.

Sujet :
The candidate will contribute to the tasks in which IRIT is involved, and will be more particularly in charge of realizing and implementing the proposed solutions. The first task concerns the representation of event graphs. The first task will be to define an adapted ontology and a process allowing to exploit it to access or represent in RDF the graphs of the industrial partners of the project, which are graphs of quite different nature. The second task aims at defining a process to evaluate the quality of the event graphs. Evaluation will be based on the ontology structure as well as on reasoning from the knowledge graph. The third task concerns the enrichment of these graphs. Two types of approaches will be implemented in the project, and for each of them research will be needed to advance the state of the art. The first approach consists in extracting information from texts. Each of the industrial partners already has its own processing chain that it will improve and unify. The second approach consists in exploiting the current state of a graph but also the structure of an event in the ontology to suggest the addition of new nodes or new relations to the graph. This approach will be implemented through learning algorithms from graph.

Profil du candidat :
Applicants are required to have a PhD in computer science, and strong background ideally in two areas of artificial intelligence: semantic web technologies (ontology engineering, linked data management and querying, SPARQL, SHACL, RuleML, …), and machine learning from graphs and vector representations, recursive neural networks, etc.

Formation et compétences requises :
Good programming skills (Python, OWL API) and experience in participating in collaborative projects is required. In addition, the candidate must have a taste for innovation, and the ability to dialogue and collaborate with industrial partners. Experience in managing graph warehouses (Virtuoso, Strabon, Neo4j…) is desired. Fluency in written / spoken English is required too. Fluency in French language will be a plus.

Adresse d’emploi :
Location : Institut de Recherche en informatique de Toulouse (IRIT) – UPS, 118 Route de Narbonne F-31062 Toulouse Cedex – France and UT2J, 5 allées Antonio Machado F-31300 Toulouse

Duration: 24 months – starting as soon as possible (at best 2 months after application)

Host team: MELODI https://www.irit.fr/en/departement/dep-artificial-intelligence/melodi-team/

The candidate will work with four academic researchers from MELODI (F. Benamara, Ph. Muller, N. Aussenac-Gilles and N. Hernandez). He will collaborate with the partner companies in the project, namely Geotrend, located in Toulouse, and Emvista, located in Montpellier.

Income: between 2300 and 2800 euros before taxes (brut) monthly according to past experience

How to apply?

Applicants should send their application files to the contact persons listed here below. Application files should contain at least a full Curriculum Vitae including a complete list of publications, a cover letter indicating their research interests, achievements to date and vision for the future, as well as either support letters or the name of 2 persons that have worked with them.
Applicants should contact: N. Aussenac-Gilles and N. Hernandez

[Thèse CIFRE] Nettoyage automatisé de données avec des réseaux de neurones profonds

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire I3S / Entreprise Himydata
Durée : 36 mois
Contact : lionel.fillatre@i3s.unice.fr
Date limite de publication : 2022-06-30

Contexte :
L’industrie 4.0 s’appuie sur la récupération et l’analyse de données provenant de nombreux capteurs et machines. La détection automatique non-supervisée d’anomalies dans ces données, suivie d’un nettoyage adéquat, est essentiel pour garantir le développement de cette nouvelle industrie. Ce projet de thèse souhaite développer un réseau de neurones profond pour effectuer ces détections et le nettoyage associé. L’architecture de ce réseau doit permettre de comprendre pourquoi le réseau nettoie, et donc modifie, une donnée. De cette façon, ce nettoyage automatisé sera explicable pour les utilisateurs impliqués.

La thèse sera réalisée avec le laboratoire I3S rattaché à l’Université Côte d’Azur et au CNRS et l’entreprise Himydata.

Sujet :
Le passage d’une industrie dite 3.0 à une industrie 4.0 se fait par la récupération de données en masse concernant les machines à l’aide de capteurs (positionnés à chaque étape du processus de production) qui sont les éléments de base des systèmes de contrôle et d’acquisition de données en temps réel. Cette quatrième révolution industrielle se caractérise aussi par la connexion des objets (ou machines) entre eux. Le but est d’obtenir une nouvelle génération d’usines connectées, robotisées et intelligentes afin de pouvoir surveiller sa production et donc d’améliorer la qualité et le temps de création des produits ainsi que d’optimiser les procédés. Cela va permettre aussi de réduire les temps d’arrêt en étant averti au préalable de l’état des machines.

Le but de l’entreprise Himydata associée à cette thèse est de rendre toutes ces données accessibles, compréhensibles et analysables par le plus grand nombre. Ce sont des bases de données complexes avec des données provenant de sources hétérogènes, possédant de nombreux attributs. Les règles sur ces données sont inconnues ou, dans le meilleur cas, très peu connues. De plus, les données provenant du monde réel sont bruitées et souvent corrompues. Ces effets peuvent avoir un impact important sur la compréhension des données, leur modélisation et sur les prises de décisions qui en découlent [1,2]. Ainsi, l’étape cruciale dans l’utilisation des données est la détection et le nettoyage des erreurs dans les données. En effet, en identifiant et en nettoyant les données « sales », il est possible d’obtenir une plus grande compréhension des données, d’améliorer les modèles se servant de ces dernières ou encore de prendre de meilleures décisions.

Profil du candidat :
Le candidat devra être titulaire d’un M2 ou grade équivalent au moment du recrutement.
Il devra aimer l’intelligence artificielle et l’apprentissage automatique.

Formation et compétences requises :
Apprentissage automatique (machine learning), réseau de neurones, probabilités et statistiques, Python (ou langage équivalent), autonomie, curiosité, esprit de synthèse.

Adresse d’emploi :
Université Côte d’Azur
Laboratoire I3S
Euclide B, 2000 Rte des Lucioles
06900 Sophia Antipolis

Document attaché : 202205162026_Sujet_These_Cifre_I3S_Himyadata_2022.pdf

INGÉNIEUR OU CHERCHEUR EN CDD – Deep Learning et Textures (Neige)

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : LISTIC
Durée : 18 Mois
Contact : abdourrahmane.atto@univ-smb.fr
Date limite de publication : 2022-07-31

Contexte :
Développement des produits neige (humide, sèche) et sol sans neige s’actualisant à chaque passage des satellites Sentinel-1 en zone de relief par fusion de produits neige humide Sentinel-1 et de produits de fractions neigeuses Sentinel-2 et VIIRS. Le projet entre dans le cadre du projet APR SHARE financé par le CNES.

Sujet :
Développement d’un protocole expérimental et analyse par apprentissage profond de la couverture spatio-temporelle de la neige par télédétection : fusion d’informations multimodales SAR/Optiques

Profil du candidat :
Docteur ou ingénieur sur des spécialisations en lien avec l’imagerie par télédétection spatiale, les mathématiques appliquées et l’intelligence artificielle.

Formation et compétences requises :
Télédection, systèmes d’information géographique, informatique, intelligence artificielle, méthode de validations croisées

Adresse d’emploi :
LISTIC – Université Savoie Mont Blanc (USMB) – Campus d’Annecy

Document attaché : 202205161407_CDD_Neige_Et_DeepLearning.pdf

Assimilation de données géodésiques pour une gestion en temps réel des risques naturels

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LISTIC/ISTerre
Durée : 3 ans
Contact : yajing.yan@univ-smb.fr
Date limite de publication : 2022-06-03

Contexte :
Cette thèse est proposée dans le contexte de la disponibilité croissante et régulière de la quantité de données de télédétection et pour répondre au besoin de la prédiction opérationnelle des risques naturels. Elle a pour objectif majeur d’améliorer l’intégration des observations géodésiques satellitaires et des modèles mécaniques dynamiques de transport de magma, ce qui répond à un enjeu crucial actuellement en volcanologie.

Sujet :
Dans une perspective de gestion du risque volcanique, il est essentiel de pouvoir savoir, à l’avance, si du magma qui a commencé à se propager depuis un réservoir va atteindre la surface, à quel endroit et à quel moment. La phase de propagation est généralement rapide de quelques heures à quelques mois, mais elle induit de la sismicité et des signaux de déformation. Ces signaux sont enregistrés par les capteurs continus (GNSS) et les données Interférométrie SAR (InSAR) dont la fréquence temporelle et le délai d’utilisation se sont fortement améliorés ces dernières années. Nous disposons, par ailleurs, de modèles dynamiques de propagation d’intrusions magmatiques permettant de calculer, en fonction des paramètres physiques de la croûte terrestre, des propriétés du magma et de l’état de contrainte local, la trajectoire suivie par le magma et sa vitesse de propagation (Pinel et al. 2017). L’assimilation de données, une méthode qui combine un modèle dynamique et les observations au présent et dans le passé en s’appuyant sur la statistique des erreurs et qui permet de prédire l’état futur du système observé, est donc un outil approprié qui répond au besoin de pouvoir prédire la position et le moment d’une éruption en volcanologie.
Parmi de nombreuses méthodes d’assimilation de données, le filtre de particules se distingue des autres par sa grande capacité à traiter des modèles non linéaires et des statistiques d’erreur non gaussiennes (van Leeuwen P.J, 2009, van Leeuwen PJ, 2010). Le filtre de particules est basé sur une représentation de la densité de probabilité du modèle dynamique par un ensemble discret d’états du modèle (nommé les particules) et repose sur le théorème de Bayes, donc sans se soucier de la distribution des erreurs de modèle (différente de la plupart des autres méthodes d’assimilation de données qui supposent une distribution gaussienne des erreurs). L’évolution de la densité de probabilité du modèle est réalisée par la propagation de toutes les particules (états du modèle) dans le temps suivant l’équation du modèle (la physique). Lorsque les observations du système sont disponibles, les contributions relatives des particules sont modifiées de sorte que l’information disponible dans les observations est intégrée dans l’essaim de particules. Le filtre de particules ne corrige pas directement les valeurs des particules, mais leurs contributions relatives, ceci est très important pour estimer les trajectoires de propagation des intrusions magmatiques. Le filtre de particules est donc l’outil approprié dans le contexte spécifique actuel d’estimation de la position d’une éruption volcanique
Dans cette thèse, nous développerons une stratégie efficace d’assimilation de données en utilisant le filtre de particule permettant d’utiliser en temps réel les données géodésiques de déformation pour prédire la localisation et le timing des bouches éruptives induites par la propagation d’intrusions magmatiques, avec une application au Piton de la Fournaise. Par ailleurs, des approches basées sur l’apprentissage automatique seront également étudiées, afin de prédire la localisation et le timing des bouches éruptives en s’appuyant uniquement sur les séries temporelles de mesures de déplacement. Les résultats seront comparés à ceux obtenus par le filtre de particule afin d’évaluer la capacité prédictive des méthodes basées uniquement sur les données. Enfin, on considère également à injecter l’information a priori apportée par les modèles physiques dans les approches d’apprentissage automatique pour améliorer la performance de ces dernières.
Cette thèse s’appuiera sur le travail de thèse de Mary Grace Bato qui avait, pour la première fois, appliqué avec succès les techniques de l’assimilation de données séquentielle (le filtre de Kalman d’ensemble) à la volcanologie en s’intéressant à la pressurisation et à la rupture des réservoirs magmatiques (Bato et al, 2017, Bato et al. 2018). Elle bénéficiera également des résultats obtenus dans le cadre de l’ANR franco-allemande MagmaPropagator (ANR-18-CE92-0037, 2019-2022). De plus, le projet CNES MagmaTrack (2022 – 2024) sera à disposition pour environner la thèse (financer des missions, conférences, etc.) .
Références :
• M. G. Bato, V. Pinel, Y. Yan, Assimilation of Deformation Data for Eruption Forecasting: Potentiality Assessment Based on Synthetic Cases, Front. Earth Sci.,doi:10.3389/feart.2017.00048, 2017.
• M. G. Bato, V. Pinel, Y. Yan, F. Jouanne, J. Vandemeulebrouck, Possible deep connection between volcanic systems evidenced by sequential assimilation of geodetic data, Scientific Reports, doi : 10.1038/s41598-018-29811-x, 2018.
• V. Pinel, A. Carrara, F. Maccaferri, E. Rivalta, F. Corbi, A two-step model for dynamical dyke propagation in two-dimensions: Application to the July 2001 Etna eruption, J. Geophys. Res. Solid Earth, 10.1002/2016JB013630, 2017.
• Gaddes, M. E., Hooper, A., Bagnardi, M. (2019), Using machine learning to automatically detect volcanic unrest in a time series of interferograms, Journal of Geophysical Research : Solid Earth , 124(11), 12304–12322.
• van Leeuwen P.J., Review Particle Filtering in Geophysical System, Mathematical Advances in Data Assimilation, 2009, pp. 4089-4114.
• van Leeuwen P.J. Nonlinear data assimilation in geosciences : an extremely efficient particle filter, 2010, Quarterly Journal of the Royal Meteorological Society, vol. 136, pp. 1991-1999.
• S. Arridge, P. Maass, O. Öktem and C.B. Schönlieb, (2019), Solving inverse problems using data-driven models, Acta Numerica, pp.1-174. DOI: https://doi.org/10.1017/S0962492919000059
• M. Titos, A. Bueno, L. Garcia, M.C. Benitez and J. Ibanez, (2019), Detection and classification of continuous volcano-seismic signals with recurrent neural networks, IEEE Transactions on Geosciences & Remote Sensing, 57(4), pp.1936-1948.
• Z. Zhang and Y. Lin, (2020), Data-driven seismic waveform inversion: a study on the robustness and generalization, IEEE Transactions on Geosciences & Remote Sensing, 58(10), pp.6900-6913.

Profil du candidat :
Le candidat doit avoir de bonne compétence en mathématique/statistique ou traitement du signal ou géophysique.

Formation et compétences requises :
mathématique/statistique ou traitement du signal ou géophysique.

Adresse d’emploi :
Annecy ou Chambéry

Bayesian Deep Learning workshop for Cosmology and Time Domain astrophysics

Date : 2022-06-20 => 2022-06-24
Lieu : Paris, Université Paris Cité (Paris 13).

We are glad to announce that the second edition of a workshop on Bayesian Deep Learning for Cosmology and Time Domain Astrophysics 2022 is open for registration. It will be held in Paris, France the week of June 20th to 24th and a call for contributions is open until May 18th.

The goal of this workshop, sponsored by the LSSTC Enabling Science effort – with contributions from DESC, ISSC and TVS collaborations – is to bring together physicists and machine learning specialists to exchange recent results at the crossroads between cosmology, time-domain astrophysics and probabilistic machine learning frameworks to leverage uncertainties. During registration, young scientists are invited to apply for grants covering lodging and part of the conference fees. Please follow the indications on the registration website for grant applications.

The first day of the workshop will be structured as a school to introduce the Bayesian framework and probabilistic machine learning concepts. The rest of the workshop will alternate between keynote talks, topical presentations, interactive tutorials and poster sessions.

We welcome in particular contributions that target, or report on, the following non-exhaustive list of topics

  • Applications of Bayesian Deep Learning in Cosmology and Time Domain Astrophysics
  • Methodology for Model Uncertainty Quantification
  • Anomaly and outlier detection
  • Probabilistic ML frameworks and methodology
  • Use of Bayesian deep learning outside of academia
  • Ethical considerations of large-scale machine learning

Contributions do not necessarily need to be astrophysics-focused. Work on relevant ML methodology, or similar considerations in other scientific fields are welcome.

Confirmed keynote speakers and panelists

  • Anja Butter, ITP Heidelberg, Germany
  • Jean-Gabriel Ganascia, LIP6, Paris, France
  • Stephen Green, MPI, Potsdam, Germany
  • Alan Heavens, Imperial College, London, UK
  • Tomasz Kacprzak, ETH Zurich / PSI, Switzerland
  • Ashley Villar, Penn State University, USA
  • Ben Wandelt, IAP, Paris, France

More information is available on the workshop website: https://astrodeep.net/workshop2022 and specific inquiries can be directed to workshop@astrodeep.net.

We look forward to welcoming you in Paris.

All the best,
The organizing committee
Eric Aubourg (CEA) – Federica Bianco (Univ. of Delaware) – Alexandre Boucaud (CNRS)
François Lanusse (CNRS) – Cécile Roucelle (Univ. Paris Cité) – Chad Schafer (CMU)

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Offre de Post-doctorat : Inférence du visage à partir de la voix

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : GREYC UMR CNRS 6072
Durée : 36 mois
Contact : olivier.lezoray@unicaen.fr
Date limite de publication : 2022-09-15

Contexte :
Le laboratoire GREYC UMR CNRS de l’Université de Caen Normandie et ENSICAEN (Caen, France), en collaboration avec l’entreprise United Biometrics (Caen, France), lance un appel à candidatures pour un poste de recherche postdoctorale (durée entre un et 3 ans) sur l’inférence du visage à partir de la voix. Les travaux réalisés se feront dans le cadre du projet BIOPOP (BIOmétrie Pour les Opérations) financé par l’AID (Agence Innovation Défense).

Sujet :
Missions :
———————————————————————-
L’objectif visé est d’inférer des informations sur le visage d’une personne à partir d’un enregistrement brut de sa voix. De récents travaux préliminaires [1, 2, 3, 4] ont montré la faisabilité de cette inférence. Il ne s’agira pas de générer le visage exact correspondant à la voix, mais de générer un visage qui permette de ressortir les caractéristiques discriminantes principales du visage (genre, âge, ethnicité, attributs crano-faciaux). Ceci peut présenter de nombreux intérêts dans le cadre d’applications liées à la sécurité. En effet, inférer un visage à partir d’une voix peut permettre ensuite à un opérateur d’effectuer différentes tâches à partir de l’image de visage inférée. Nous pouvons citer par exemple : la vérification de la cohérence entre une voix et un visage, la recherche du visage inféré dans une base de données.

Le post-doctorant réalisera un état de l’art précis des méthodes d’inférence du visage à partir de la voix. Il implémentera une solution de l’état de l’art reposant sur des modèles génératifs. Enfin il développera une nouveau modèle génératif plus efficace, qui puisse garantir la génération d’un visage réaliste pour répondre aux attentes du projet BIOPOP.

Profil du candidat :
Profil attendu :
———————————————————————-
Doctorat en informatique et spécialisé en apprentissage automatique.
– De solides connaissances de l’apprentissage profond, de la vision par ordinateur.
– Des publications dans des conférences majeures du domaine.
– De solides compétences en développement logiciel/programmation, en particulier en Python/PyTorch.
– De bonnes compétences en communication écrite et verbale sont requises, le candidat doit parler couramment le français et maitriser l’anglais écrit.
– Des compétences interpersonnelles et la capacité à travailler individuellement ou en tant que membre d’une équipe de projet sont recommandées.

Formation et compétences requises :

— Pour postuler : Les candidats intéressés doivent soumettre (par courrier électronique, dans un seul fichier pdf) leur curriculum vitae, la liste de leurs publications, une lettre de motivation et les coordonnées de trois références (ne pas inclure les lettres de référence avec vos candidatures car nous ne les demanderons qu’aux candidats présélectionnés). Les candidatures seront admises jusqu’à ce que le poste soit pourvu. Le poste débutera début Octobre
— Contact / encadrement:
— Olivier Lézoray (olivier.lezoray@unicaen.fr, Professeur, UNICAEN, GREYC)
— Sébastien Bougleux (sebastien.bougleux@unicaen.fr, Maître de Conférences, UNICAEN, GREYC)
— Christophe Charrier (christophe.charrier@unicaen.fr, Maître de Conférences HDR, UNICAEN, GREYC)

Adresse d’emploi :
Informations générales :
———————————————————————-
– Laboratoire : Le laboratoire GREYC (UMR CNRS 6072) est une Unité Mixte de Recherche en sciences du numérique sous la tutelle de l’ENSICAEN, du CNRS et de l’Université de Caen Normandie (UNICAEN). Les travaux seront effectués au sein de l’équipe Image dont les activités de recherche sont centrées sur le développement de nouvelles méthodes de traitement et d’analyse de signaux/images/vidéos.
— Lieu : Caen (France), située en région Normandie, près de la mer et à environ 240 km à l’ouest de Paris, la ville possède encore de nombreux quartiers anciens, une population d’environ 120 000 habitants et une agglomération d’environ 250 000 habitants, incluant plus de 30 000 étudiants à l’Université.

Document attaché : 202205120826_post-doc-greyc.pdf

Postdoc in NLP @ Laboratoire d’Informatique de Grenoble

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIG
Durée : 18 months
Contact : Emilie.Devijver@univ-grenoble-alpes.fr
Date limite de publication : 2022-09-15

Contexte :
Despite their success in many NLP tasks, seq2seq models fail at learning
simple generalization rules, i.e. interpreting novel combinations
of known lexical items, as illustrated by results on challenge datasets
such as SCAN [1] or COGS [2].
The HyperboTAL project is a multi-disciplinary collaboration
aiming at applying the tools of hyperbolic geometry to improve the
systematic compositional capabilities of Natural Language Processing models.
The project will build on recent proposals, as [3] and [4], that use
hyperpolic geometry to better encode linguistic information (e.g. Poincaré
embeddings).

[1] Generalization without systematicity: On the compositional skills of
sequence-to-sequence recurrent networks. B. M. Lake, M. Baroni. ICML 2018.
[2] COGS: A Compositional Generalization Challenge Based on Semantic
Interpretation. N. Kim, T. Linzen. EMNLP 2020
[3] Poincaré Embeddings for Learning Hierarchical Representations.
M. Nickel, D. Kiela. Neurips 2017.
[4] Hyperbolic graph neural networks. Q Liu, M Nickel, D Kiela.
NeurIPS 2019.

Sujet :
Main tasks:

– Literature review on hyperbolic geometry applications in NLP and
deep learning approaches to systematic compositionality.
– Design compositionality models that bring together
the tools of hyperbolic geometry and those of deep learning.
– Implementation and evaluation of proposed models on existing
challenge datasets (COGS).

The scientific orientations of the post-doc may vary according to the
candidates’ background and interests.

Profil du candidat :
– Background and/or strong interest in Mathematics and Natural Language
Processing.
– Programming skills: proficiency in python and experience with a deep
learning library.
– Proficiency in either French or English.

Formation et compétences requises :
– PhD in computer science.

Work environment:

– Location: Laboratoire d’Informatique de Grenoble (LIG), on Université
Grenoble Alpes campus.
– Cosupervision by Émilie Devijver (PI), Gérard Besson, Maximin Coavoux,
Éric Gaussier.
– Gross salary: minimum 2400 euros per month (depends on experience).
– Starting date: September 2022 (flexible).

To apply, please send a cv and a cover letter to contacts below as soon as
possible (applications are open until the position is filled).

Contacts (for applications or any questions about the position/project):
emilie.devijver@univ-grenoble-alpes.fr
g.besson@univ-grenoble-alpes.fr
maximin.coavoux@univ-grenoble-alpes.fr
eric.gaussier@imag.fr

Adresse d’emploi :
Laboratoire de Grenoble d’Informatique

Fouille de données biomédicale

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Inria Paris, Centre de Recherche des Cordeliers et
Durée : 36 mois
Contact : adrien.coulet@inria.fr
Date limite de publication : 2022-09-15

Contexte :
La considération combinée des connaissances de l’état de l’art (la littérature scientifique, les bases de données biologiques expertes, etc.) et les entrepôts de données cliniques doivent permettre de structurer, puis d’enrichir les connaissances actuelles sur les maladies auto-immunes qui sont actuellement trop compartimentées entre spécialités médicales.

Sujet :
Objectifs concrets de la thèse :
– extraction et analyse des connaissances de l’état de l’art à partir de la littérature et des bases de données expertes (notamment PubMed, OrphaNet, HPO, IGMT),
– extraction et analyse des données des entrepôts de données de santé pour valider les connaissances extraites de la littérature et les compléter par de nouvelles (EDS, BNDMR),
– construire et publier deux ressources de référence de façon ouverte et FAIR : un thésaurus des auto-anticorps, et une cartographie sous forme de graphes de connaissances qui relient pathologies auto-immunes, signes cliniques observés et présence d’auto-anticorps,
– comparaison entre les connaissances d’origines diverses.

Profil du candidat :
autonomie, esprit d’équipe, intérêt pour le domaine de la santé, excellentes compétences relationnelles et sociales

Formation et compétences requises :
compétences techniques (Python, SQL, R), expérience préalable en sciences de données ou en traitement automatique du langage appréciée

Adresse d’emploi :
A PariSanté Campus (75015 Paris) et l’Institut Cochin (75014 Paris). L’inscription sera faite dans l’Ecole Doctorale ED386 de l’Université Paris Cité.

Document attaché : 202205111417_PhD opportunity on Data Intelligence_vf.pdf

Semantic Segmentation of Heterogeneous Data by Deep Learning for the Prevention of Natural Hazards

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire/Entreprise : PRISME / BRGM
Durée : 36 months
Contact : yves.lucas@univ-orleans.fr
Date limite de publication : 2022-09-15

Contexte :
The aim of this thesis is to evaluate the contribution of artificial intelligence to better assess the vulnerability of assets facing natural hazards, by unfolding impact scenarios in a multi-risk and multi-scale perspective. The highly multimodal and heterogeneous character of remote sensing data (visible, IR, hyperspectral, lidar, radar, topography, spectral libraries of materials ….) to characterize a territory, brings out a new methodological challenge: to develop network architectures adapted for the classification and semantic segmentation of these massive and complex data. This thesis work is also in synergy with the actions carried out at BRGM (H2020 COCLICO, VIGIRISKS, ANR RICOCHET projects) and the ANR-IA where joint work has been initiated between PRISME and BRGM

Sujet :
Complete description is available in the attached file.

Profil du candidat :
The candidate should have obtained a Master’s degree in computer science. Autonomy, scientific rigor and a strong motivation for the proposed subject will be undeniable assets to successfully complete the thesis.

Candidates must send the following documents in a single pdf file :
CV + cover letter + Master grades – optional letters of recommendation.

Contacts:

yves.lucas@univ-orleans.fr
a.hohmann@brgm.fr
c.negulescu@brgm.fr

Formation et compétences requises :
The candidate should have a broad knowledge of image processing, including deep learning techniques and their implementation in software and hardware. Fundamental notions in remote sensing are also required. Fluency in English is essential.

Adresse d’emploi :
Polytech Orléans · 12, rue de Blois, BP 6744 · 45067 cedex 2 Orléans , France

BRGM 3 avenue Claude-Guillemin, BP 36009 45060 Orléans Cedex 02 France

Document attaché : 202205111304_these_BRGM_PRISME_annonce_MADICS.pdf

Apprentissage automatique de la dynamique des utilisateurs dans les bâtiments intelligents

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : L@bISEN Yncréa Ouest, Equipe Vision-AD/KARDHAM
Durée : 3 ans
Contact : matthieu.saumard@isen-ouest.yncrea.fr
Date limite de publication : 2022-09-15

Contexte :
En France, la consommation énergétique dans le secteur du bâtiment (résidentiel et tertiaire) représente 44% de la consommation globale, loin devant celle dans l’industrie et les transports [1]. Cette consommation est équivalente à 1,1 tonne de pétrole par an et par habitant. Cette part de consommation ne cesse d’augmenter pour totaliser une hausse de 30% sur les dernières 3 décennies. Entretemps, les bâtiments modernes intègrent de plus en plus des composantes digitales comme les capteurs, microcontrôleurs et moyens de communications. Les objets connectés deviennent une composante nécessaire dans les nouvelles constructions et les cas d’usages de ces objets dans les bâtiments fusent avec un objectif global de contribuer à la maitrise de la consommation dans les bâtiments et à leur réduction. De nouveaux systèmes ont vu le jour pour (i) être informé de l’état du bâtiment ou pour (ii) agir sur les bâtiments comme les solutions EcoStrcuture ou Gapéo dédiée au pilotage du confort et de la performance environnementale et énergétique.
L’usage des nouvelles technologies dans le bâtiment n’est pas exclusivement dédié aux réductions des énergies. La sécurité, l’amélioration du confort thermique, la gestion intelligente des espaces de travail sont un exemple de réalisations récentes. Plus particulièrement, la combinaison des techniques de captation de données avec les avancées récentes dans le domaine de l’intelligence artificielle peut contribuer à la mise en place d’application permettant la fluidification du parcours du collaborateur en entreprise. En effet, avec les nouvelles tendances regroupées dans un paradigme connu sous le nom du New World of Work (NWOW), il est intéressant pour l’entreprise de connaitre l’occupation temps réel de ses espaces de travail et de faire des profils d’utilisation selon l’activité, le collaborateur, l’espace de travail, la temporalité, etc. L’objectif étant de pouvoir réserver aux éventuels espaces sous-utilisés un nouvel usage ou de les rentabiliser avec de la location ce qui permet également des économies financières pour l’entreprise et énergétique pour la ville.

Sujet :
Face à ce paysage concurrentiel, le groupe Kardham Digital souhaite proposer des solutions innovantes pour permettre à l’industrie de l’immobilier de l’entreprise une meilleure efficacité économique. Le constat que nous faisons est que les bâtiments intelligents reposent sur peu d’algorithmes, qui de surcroît, manquent d’interaction avec les usagers. Ces derniers souhaitent reprendre le contrôle sur le bâtiment en ajoutant des services innovants. Par conséquent, la prise en compte du comportement de l’occupant de l’espace connecté présente un enjeu majeur et nécessite des études plus approfondies.
Plus particulièrement, à travers cette thèse, nous cherchons à répondre à des nouvelles questions posées par ce contexte. Des questions prosaïques telles que :
– Comment réduire les espaces tout en maximisant le confort des utilisateurs ?
– Quelles applications pouvons-nous proposer pour faciliter la vie à l’intérieur du bâtiment ?
– Comment répondre au mieux aux demandes des propriétaires des immeubles qui cherchent à augmenter l’attractivité de leur bien en proposant des services innovants et performants ?
– Quels services pouvons-nous rendre aux locataires pour fluidifier l’expérience des utilisateurs et collaborateurs ?
– Quels usages pouvons-nous tirer des capteurs générant des données ? Quels capteurs nous donneront accès à des cas d’usage plus pertinents ? Cet usage compensera-t-il le cout énergétique de fabrication du capteur ?
– Peut-on avoir une cartographie sur les flux des données échangés dans le bâtiment connecté et comment utiliser ces données massives ?
– Quelle différentiation entre l’occupation des salles de réunion et de bureaux individuels ?
– Dans quelles mesures les services proposés sont dynamiques ?
Finalement, par cette thèse nous souhaitons proposer une solution logicielle à base d’algorithmes capables de manipuler et analyser des données dans le cadre du bâtiment tertiaire intelligent. A travers ces algorithmes, de nouveaux services seront proposés exploitant la prédiction du comportement de l’occupant de l’environnement connecté. Les données collectées dans le bâtiment intelligent de Kardham feront l’objet d’observations sur le terrain, puis à l’aide de modèles mathématiques (Machine Learning) seront éprouvées et expérimentées. Les algorithmes sous-jacents seront alors déployés en phase de test avec retour d’expérience et amélioration des méthodes.

Profil du candidat :
Pour cette thèse, nous recherchons un(e) jeune doctorant(e) fortement motivé(e) et ayant un goût prononcé pour l’innovation. Il/elle devra participer au développement de la solution qui s’intègre dans les offres proposées Kardham Digital.

Formation et compétences requises :
Concernant les aspects liés à la recherche, le/la candidat(e) devra être titulaire d’un Master ou d’un diplôme d’ingénieurs avec des compétences en Machine Learning, intelligence artificielle et/ou gestion des données massives. Il/elle est aussi nécessaire qu’il/elle ait une expérience réussie dans le développement informatique. Un recul sur les questions sociales liées aux bâtiments et à la ville intelligents est nécessaire. Un excellent niveau d’expression en français à l’écrit et à l’oral est exigé.

Adresse d’emploi :
– 10 Rue du Débarcadère 75017 Paris, France
– 33 quarter chemin du champ de manoeuvre, Carquefou, France

Document attaché : 202205110720_Sujet_Kardham_ISEN_10052022 (002).pdf