Post-doctoral position on Distributed embedded reasoning for the Web of Things

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Laboratoire Hubert Curien
Durée : 1 year
Contact : singh.d.kamal@gmail.com
Date limite de publication : 2021-11-19

Contexte :
This Postdoc position is in the context of the CosWot project (“Constrained Semantic Web of Things” https://coswot.gitlab.io/), funded by the French National Research Agency. CoSWoT considers semantic web technologies for the Web of things (WoT). The objectives of the project are to propose a distributed WoT-enabled software architecture embedded on constrained devices with two main characteristics: 1) it uses ontologies to declaratively specify the application logic of devices and the semantics of the exchanged messages; 2) it adds rule-based reasoning [1, 2, 13, 14] functionalities to devices, so as to distribute processing tasks among them. Doing so, the development of applications including devices of the WoT will be highly simplified: our platform will enable the development and execution of intelligent and decentralised smart WoT applications despite the heterogeneity of devices.
The main objectives of this Postdoc are to provide contributions to distributed reasoning on the Web of Things.

The Postdoc will be a member of the LabHC Laboratory, St-Etienne, France.

Lab. Hubert Curien (https://laboratoirehubertcurien.univ-st-etienne.fr/en/index.html) is a joint research unit of CNRS (UMR 5516), Université Jean Monnet in Saint-Etienne, and the Institut d’Optique Graduate School, working on topics related to optics, photonics and microwave, computer science, telecom and image. The members from LaHC involved in the CoSWoT project include researchers of its team named as Data Intelligence. They specialise in AI and data processing.
Close collaboration will also be necessary with the LIRIS Lab. team where a PhD student works on incremental and embedded reasoning.

Sujet :
The objective of the Postdoc is to design and implement an efficient distributed reasoner for the Web of Things (WoT). The reasoner should be able to work on constrained (with limited processing capacity, memory and energy, i.e., sensor nodes and other embedded devices with micro-controllers) and autonomous devices. The target architecture is based on edge computing: main components, including sensors and actuators as well as intermediate nodes and gateways of various computing capabilities.

There are some existing works paving the way for such reasoners, including [1-12]. However, they are not suitable for WoT and diversely constrained objects. Such devices are not all capable of performing all reasoning tasks. We aim for edge intelligence where incremental reasoning concerns both sensor data streams and contextual data. As it is probable that all constrained objects will not be able to execute all reasoning tasks, distributing these data and tasks optimally over a network of WoT nodes will also be necessary [8-9].
The postdoc will define a method for the distribution of reasoning tasks among the edge and devices, where each device collaboratively performs a part of the reasoning tasks. At runtime, reasoning tasks must be distributed in an efficient manner and to the appropriate locations. This will be done while considering WoT constraints including proximity to the data source, capabilities and resources constraints, current computational load, bandwidth, etc.

References
—————
[1] Nenov, Y., Piro, R., Motik, B., Horrocks, I., Wu, Z., & Banerjee, J. RDFox: A highly-scalable RDF store. In ISWC: 3-20, 2015.
[2] Terdjimi, M., Médini, L., Mrissa, M. HyLAR: Hybrid Location-Agnostic Reasoning. In ESWC Devs Workshop 2015.
[3] Terdjimi, M., Médini, L., Mrissa, M. HyLAR+: Improving Hybrid Location-Agnostic Reasoning with Incremental Rule-based Update. In WWW 2016, companion volume.
[4] Terdjimi, M., Médini, L., Mrissa, M. Web Reasoning using Fact Tagging. In WWW 2018, companion volume
[5] Chevalier, J., Subercaze, J., Gravier, C., Laforest, F. Slider: an Efficient Incremental Reasoner. In SIGMOD 2015.
[6] Chevalier, J., Subercaze, J., Gravier, C., Laforest, F. Incremental and Directed Rule-Based Inference on RDFS. In DEXA 2016.
[7] Jacopo Urbani and Ceriel Jacobs. 2020. Adaptive Low-level Storage of Very Large Knowledge Graphs. In Proceedings of The Web Conference 2020 (WWW ’20). Association for Computing Machinery, New York, NY, USA, 1761–1772. DOI:https://doi.org/10.1145/3366423.3380246
[8] Seydoux, N., Drira, K., Hernandez, N., & Monteil, T. EDR: A Generic Approach for the Dynamic Distribution of Rule-Based Reasoning in a Cloud-Fog continuum. In Semantic Web Journal, 2019. http://semantic-web-journal.net/system/files/swj2238.pdf
[9] Su, X., Li, P., Riekki, J., Liu, X., Kiljander, J., Soininen, J. P., … & Li, Y. (2018, March). Distribution of semantic reasoning on the edge of internet of things. In 2018 IEEE International Conference on Pervasive Computing and Communications (PerCom) (pp. 1-9). IEEE.
[10] Maarala, A. I., Su, X., & Riekki, J. (2017). Semantic reasoning for context-aware Internet of Things applications. IEEE Internet of Things Journal, 4(2), 461-473.
[11] Ren, X., & Curé, O. Strider: A hybrid adaptive distributed RDF stream processing engine. In International Semantic Web Conference (pp. 559-576). Springer, Cham (2017).
[12] Su, X., Gilman, E., Wetz, P., Riekki, J., Zuo, Y., & Leppänen, T. (2016, June). Stream reasoning for the Internet of Things: Challenges and gap analysis. In Proceedings of the 6th Int. Conf. on Web Intelligence, Mining and Semantics (p. 1). ACM.
[13] Charles L Forgy. Rete: A fast algorithm for the many pattern/many object pattern match problem. InRea-dings in Artificial Intelligence and Databases, pages 547–559. Elsevier, 1989.
[14] William Van Woensel and Syed Sibte Raza Abidi. Optimizing semantic reasoning on memory-constrained platforms using the rete algorithm. In European Semantic Web Conference, pages 682–696. Springer, 2018

Profil du candidat :
PhD in computer science.
Salary: around 2192 € net per month during 1 year. There will also be an option to teach in the university.

Expected starting date: October 2021 or later

To apply, candidates should send the following:
– A motivation letter
– A CV
– All documents attesting the required skills and knowledge
– 2 selected publications
– Contact information of 2 professors who can provide recommendation on the candidate

The applications should be sent to singh.d.kamal@gmail.com

Formation et compétences requises :
Skills in semantic web knowledge representation, rule-based reasoning and distributed algorithms are required.
Proficiency in the English language for speaking, writing and reading are necessary.
Programming skills in C, JavaScript are a plus.
French language skills are not a prerequisite.
Depending on the candidate native language, French or English will be the working language.

Adresse d’emploi :
Laboratoire Hubert Curien,
18 Rue Professeur Benoît Lauras Bâtiment F,
42000 Saint-Étienne

Thèse CIFRE, Télécom Paris/Valeo

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Telecom Paris/Valeo
Durée : 3 ans
Contact : pavlo.mozharovskyi@telecom-paris.fr
Date limite de publication : 2021-11-19

Contexte :
Thèse CIFRE, Télécom Paris/Valeo

“Détection d’anomalies pour les données à grande échelle et hétérogènes issues des lignes de production”
(“Anomaly detection for large-scale and heterogenous data of production lines”)

Sujet :
La détection d’anomalies est une branche de l’apprentissage artificiel qui vise à identifier des évènements anormaux et aberrants. Bien qu’elle connaisse de nombreuses applications, elle est encore sous-employée dans l’industrie, alors qu’elle peut fournir un outil essentiel pour le suivi et l’amélioration des lignes de production. Dans ce contexte, l’objectif principal de cette thèse est de développer une méthodologie de détection d’anomalies pour les données de grande dimension mesurées en grande quantité à des fréquences variables et possédant en outre une structure hiérarchique ; de telles données – de plus en plus fréquentes dans l’industrie – constituent un défi encore ouvert. En effet, les outils d’apprentissage doivent non seulement permettre de détecter les paramètres de fabrication anormaux et aberrants avec la plus grande fiabilité mais aussi fournir une interprétation de la prévision qui puisse être utile à améliorer le processus de fabrication.
La thèse explorera différentes voies comme la profondeur de données et la classification une classe. Elle sera réalisée dans le cadre d’une collaboration étroite entre l’entreprise Valeo (site de production l’Isle d’Abeau) et Télécom Paris (Institut Polytechnique de Paris). Les méthodes développées seront appliquées à des bases de données issues d’un ensemble de ligne de production de dernière génération.

Encadrants :
Pavlo Mozharovskyi – LTCI, Télécom Paris, Institut Polytechnique de Paris
Florence d’Alché-Buc – LTCI, Télécom Paris, Institut Polytechnique de Paris

Profil du candidat :
Qualifications attendues :
– Master en statistique / science de données / Machine Learning / intelligence artificiel / Diplôme d’ingénieur avec spécialisation dans ces domaines.
– Très bon niveau dans au moins un des langages de programmation de Machine Learning : R / Python, C / C++, ou similaire.

Formation et compétences requises :
– Master en statistique / science de données / Machine Learning / intelligence artificiel / Diplôme d’ingénieur avec spécialisation dans ces domaines.
– Très bon niveau dans au moins un des langages de programmation de Machine Learning : R / Python, C / C++, ou similaire.

Adresse d’emploi :
– Télécom Paris (Campus de Institut Polytechnique de Paris, 25 km de Paris), 19 place Marguerite Perey, F-91120 Palaiseau.
– Valeo, site L’Isle d’Abeau.

Document attaché : 202109151614_CIFRE-thesis-advertisement_fr.pdf

Analyse de données pour l’optimisation de la conception des produits dans l’usine connectée

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : L@abIsen – entreprise ACOME
Durée : 15 mois
Contact : benoit.lardeux@isen-ouest.yncrea.fr
Date limite de publication : 2021-10-05

Contexte :
Ce CDD se déroule dans le cadre d’une chaire industrielle entre l’entreprise ACOME, leader européen dans la création des câbles, et le L@bIsen le laboratoire de l’Ecole Supérieure de l’Electronique et du Numérique.

ACOME – Mortain
A la fois leader et spécialiste sur les marchés des réseaux télécoms et infrastructures, des réseaux du bâtiment, de l’automobile et de l’embarqué, ACOME est aujourd’hui le 1er groupe industriel coopératif français produisant des câbles, des tubes et de la fibre optique sur le territoire national depuis 1932 et la 1ère SCOP de France (Société Coopérative et Participative) avec une forte dynamique internationale et des implantations en Chine, en Afrique du Nord et au Brésil.
www.acome.fr

L’ISEN Yncréa Ouest est une école d’ingénieur post-bac reconnue comme un établissement d’enseignement supérieur privé d’intérêt général sous contrat avec le ministère de l’Enseignement Supérieur et de la Recherche Les activités de recherche de l’équipe d’accueil (L@bISEN de l’Yncréa Ouest) sont essentiellement centrées sur le numérique et ses applications notamment celles dans l’Usine 4.0, les réseaux de capteurs, le campus connecté, le traitement des données, et l’Intelligence Artificielle. Le laboratoire de Recherche L@bISEN Yncréa Ouest est accrédité par la HCERES.

Sujet :
Dans le secteur industriel, les entreprises sont soumises à des demandes toujours plus fréquentes de nouvelles versions de leurs produits pour répondre aux besoins en perpétuel évolution du marché.

L’industrie de la fabrication des câbles est particulièrement impactée par cette tendance de fond qui pousse les laboratoires de conception des nouveaux produits à fournir toujours plus de recettes des nouvelles fabrications en un temps réduit, en prenant en compte les normes imposées par les clients.

Afin d’améliorer le temps de mise sur marché, un enjeu important est de minimiser le nombre de tentatives pour fabriquer un nouveau produit afin de minimiser le temps de conception ainsi que les déchets générés par un nombre trop important d’essais infructueux. Pour cela, le bureau d’étude de l’entreprise peut utiliser l’expérience et les informations acquises lors des multiples tentatives déjà enregistrées pour obtenir les produits actuellement commercialisés.

Des masses importantes de données sont donc à disposition pour permettre l’étude des paramètres qui influent sur la qualité et les particularités des nouveaux câbles générés. La difficulté consiste à analyser ces données afin d’identifier les paramètres de conception qui ont un impact sur les indicateurs qu’il est nécessaire d’améliorer.

Le livrable principal pendant ce contrat sera de mettre en place l’architecture logicielle permettant de collecter les données, les traiter et les analyser. Le jeune docteur pressenti pour ce poste devra par ailleurs proposer de nouveaux modèles d’optimisation pour généraliser la prise en compte des indicateurs principaux dans la production de nouveaux câbles. Des méthodes de recherche opérationnelle et/ou d’intelligence artificielle permettront alors de résoudre ces problèmes clés pour l’entreprise d’optimisation du processus de conception.

Profil du candidat :
– Jeune docteur
– Appétence pour les problématiques dans l’industrie 4.0
– Une formation solide en outils d’aide à la décision informatique: Recherche Opérationnelle, Intelligence Artificielle, réseaux de neurones
– Maîtrise des outils logiciels nécessaires à la collecte et le traitement des données
– Une connaissance des techniques de traitement des données massives

Formation et compétences requises :
PhD Informatique, RO, Science des Données, Génie Logiciel

Adresse d’emploi :
L@bIsen
33 Avenue du Champ de Manoeuvre
44300 CARQUEFOU

Document attaché : 202109140945_postdoc_acomeisen.pdf

Advanced course on Deep Learning and Geophysical Dynamics

Date : 2021-09-13 => 2021-10-15
Lieu : Brest

We will organize the first edition of the Advanced Course on Deep Learning and Geophsyical Dynamics next November. This course is co-organized by AI Chairs OceaniX (https://cia-oceanix.github.io/) and AI4Child. It is also part of the training activities supported by LEFE/Manu on AI and Ocean-Atmosphere Science along with the introductory doctoral course on Data Science for Geoscience.

The course will be held on Tuesdays from November 9 to December 7. It will cover both theoretical and practical aspects regarding deep learning models and schemes and their exploitation for the identification, simulation, forecasting and reconstruction of geophysical dynamics. The course is primarily aimed at PhD students and early-career scientists, but other professionals willing to participate are most welcome. The pre-requisites include some basic knowledge in machine learning or applied statistics and Python programming. The preferred communication language during thee course will be English.

The course will be held in-person on Brest campus, but the organisation of the course will also make possible remote participations. See the following link for more information on the organization and the program of the course: https://cia-oceanix.github.io/training

The registration is open until September 27 through the folllowing link: https://forms.gle/nt3469TKLdw7Fog99
Visiting scholarships could be granted to scholars interested in attending to the course jointly to a visiting period in OceaniX group. Please let us know your research interests through the registration form.

Do not hesitate to contact us for any additional information (ronan.fablet@imt-atlantique.fr)

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Postdoc position: Temporal data integration for developmental biology

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Université Aix-Marseille
Durée : 2 ans
Contact : Paul.villoutreix@univ-amu.fr
Date limite de publication : 2022-01-01

Contexte :
Recent years have witnessed an explosion of data in biology and medicine. Many acquisition techniques, like microscopy or sequencing techniques, provide complementary views of the same system, e.g. an organ, an embryo, a tumor. To understand the dynamics happening at single cell resolution and develop new personalized treatments, we need to integrate these complementary sources of information. To tackle this problem, this project aims at developing new Temporal Data Integration theoretical and computational methods for various complementary acquisition techniques (microscopy, and multi-omics).

Sujet :
When studying a biological system such as a developing embryo, many acquisition techniques are available. Each of them brings out unique features of the system, however, they are often incompatible and cannot be performed at the same time. To address this challenge we need to develop multi-domain integration techniques. Current approaches rely either on the tools of optimal transport, or multiple autoencoders, however, they are not designed to address temporal data. With this project, we propose to take advantage of multi-domain dynamical data in high-dimensional spaces to infer a dynamical coupling between sequencing data acquisition techniques (such as sc-RNASeq) and microscopy data. This will include theoretical work and computational experiments on artificial and real data. The results of the project are expected to have large impact in the machine learning community and be of wide applicability in real world biological problems. The scientific environment for this project is ideal as it combines expertise in interdisciplinary approaches of machine learning applied to biological data, and expertise in theoretical machine learning.

Profil du candidat :
We are looking for a PhD in machine learning, computer science, applied mathematics with strong interest in machine learning and its applications to biology. The postdoc will take place in Paul Villoutreix’s interdisciplinary team (Learning meaningful representation of life http://bioml.lis-lab.fr/) and the Machine Learning team of the Computer Science lab in Marseille (https://qarma.lis-lab.fr).

Formation et compétences requises :
Theoretical background and coding skills in Machine Learning.

Adresse d’emploi :
Turing Center for Living Systems – CENTURI (Marseille)
LIS and Université Aix Marseille

Document attaché : 202109090700_postdoc temporal data integration.pdf

Post-doctorant en Machine learning

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : laboratoire ERIC
Durée : 12 mois
Contact : julien.velcin@univ-lyon2.fr
Date limite de publication : 2022-01-01

Contexte :
Ce contrat constitue l’élément central du projet POIVRE, financé par le programme IRSDI de la fondation Jacques Hadamard (https://www.fondation-hadamard.fr/). Le projet implique des chercheurs du laboratoire ERIC et d’EDF R&D. Les membres du laboratoire ERIC, en collaboration avec leurs partenaires, travaillent depuis quelques années sur le traitement des données textuelles et sur l’apprentissage automatique de représentations adaptées aux réseaux de documents.

Sujet :
Le projet POIVRE vise à construire des nouvelles solutions pour analyser les points de vue, solutions qui seront appliquées à l’analyse des débats sur Twitter au sujet du nucléaire dans la campagne présidentielle française. En effet, cette plateforme d’échange est un réseau d’information hétérogène qui permet aux individus de communiquer en postant des messages (information textuelle) via différents mécanismes (relation de suivre ou d’être suivi, faire suivre le message par ReTweet, aimer ou mentionner). Or, ce type de réseau est un lieu privilégié d’échange de points de vue où s’opèrent des phénomènes de diffusion de l’information, de regroupements partisans, d’influence.

L’objectif du post-doctorant.e est de concevoir des nouvelles méthodes pour analyser les points de vue tels qu’ils se figent dans un réseau d’information hétérogène comme Twitter. Pour cela, l’idée principale consiste à avoir recours à des approches de deep learning comme les Graph Neural Networks (GNN) en les adaptant aux différentes caractéristiques liées à la question du point de vue. En effet, celui-ci peut dépendre de la position du noeud dans le graphe mais également de différents éléments (par ex. les arguments) développés dans le contenu textuel des messages. Les méthodes développées doivent pouvoir être utilisées pour identifier des communautés aux points de vue similaires.

Les méthodes développées dans ce travail seront notamment testées sur un jeu de données issue de Twitter, récolté à l’occasion de la campagne présidentielle qui débute en France. Ce jeu de données portera en particulier sur les débats que suscitent les questions sur l’énergie (nucléaire, énergies renouvelables). En plus du support de chercheurs en Informatique avec une expérience en machine learning et en analyse des réseaux sociaux, le.a post-doctorant.e pourra bénéficier de l’expertise de sociologues spécialistes des questions de l’étude des représentations sur le sujet de l’énergie.

Profil du candidat :
Nous recherchons principalement un docteur en machine learning ayant travaillé sur des données en réseau (graphes). Une expérience en NLP serait un vrai plus, ainsi qu’un intérêt pour le travail collaboratif en étroite collaboration avec les sciences sociales.

Formation et compétences requises :
Doctorat en Informatique avec des compétences en machine learning et si possible en NLP.

Adresse d’emploi :
Laboratoire ERIC – Université Lyon 2, campus de Bron

Contrat post-doctoral : Cartographie de concentrations de polluants sur un site industriel.

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IMT Nord Europe et Groupe TERA (région Sud)
Durée : 24 mois
Contact : christelle.garnier@imt-lille-douai.fr
Date limite de publication : 2021-09-30

Contexte :
Dans le cadre du plan de relance visant à préserver l’emploi en Recherche et Développement (R&D), IMT Nord Europe et Groupe TERA recrutent pour répondre aux défis d’un projet collaboratif ayant pour objectif de développer un démonstrateur à taille réelle de la potentialité de la mesure sur un site industriel complexe alliant déploiement optimisé de capteurs et traitement en temps réel des données pour visualiser la dynamique temporelle à très fine résolution (moins d’une minute) et à haute résolution spatiale (moins de 50 mètres) des concentrations en PM (Particulate Matter).
Pour ce faire, un partenariat sera établi avec un industriel de la zone industrielle de Fosse-Berre et l’AASQA de la région concernée ATMO SUD.

Sujet :
Ce poste a pour objectif la réalisation d’une cartographie permettant la spatialisation en temps quasi réel de la pollution à l’échelle d’une zone à risque.
Les principales actions à conduire sont les suivantes :
• Définir une méthodologie permettant d’établir une stratégie de déploiement (définition des dynamiques spatiale et temporelle des capteurs) suivant l’objectif, l’échelle et le niveau de qualité de la cartographie. Ces travaux permettront ensuite d‘optimiser le nombre et la répartition spatiale des capteurs / points de mesures en intégrant si besoin des point(s) de référence sur la zone géographique délimitée (via une ou des station(s) de mesures hautes performances),
• Développer des méthodes de reconstruction à partir de l’état de l’art (krigeage avec processus Gaussiens) et d’outils plus récents, comme l’apprentissage profond utilisant des architectures de réseaux de neurones. Il faudra prendre en compte la qualité des informations (incertitudes suivant capteurs) et l’intégration de données exogènes (météo, topologie…) pour améliorer la qualité de la cartographie.

Profil du candidat :
Doctorat en science des données, traitement du signal ou des images, intelligence artificielle, informatique ou mathématiques appliquées obtenu au cours des années 2019, 2020 ou 2021.

Formation et compétences requises :
• Connaissance des méthodes d’apprentissage automatique, en particulier d’apprentissage profond, et/ou des méthodes d’interpolation spatio-temporelle (krigeage).
• Eventuellement, connaissances de base en sciences de l’environnement.
• Utilisation des outils actuels de science des données : langage Python et framework de deep learning (comme PyTorch, TensorFlow ou Keras).

Adresse d’emploi :
Le poste est situé dans la région Sud, dans la zone de l’étang de Berre. Déplacements à prévoir sur les différents sites du Groupe TERA et à l’IMT Nord Europe (Lille).

Document attaché : 202109081418_2021_Fiche_Postdoc_Cartographie_Polluants.pdf