
MaDICS est un Groupement de Recherche (GDR) du CNRS créé en 2015. Il propose un écosystème pour promouvoir et animer des activités de recherche interdisciplinaires en Sciences des Données. Il est un forum d’échanges et d’accompagnement pour les acteurs scientifiques et non-scientifiques (industriels, médiatiques, culturels,…) confrontés aux problèmes du Big Data et des Sciences des données.
Pour en savoir plus…
Les activités de MaDICS sont structurées à travers des Actions et Ateliers. Les Actions rassemblent les acteurs d’une thématique précise pendant une durée limitée (entre deux et quatre ans). La création d’une Action est précédée par un ou plusieurs Ateliers qui permettent de consolider les thématiques et les objectifs de l’action à venir.
Le site de MaDICS propose plusieurs outils de support et de communication ouverts à la communauté concernée par les Sciences des Données:
- Manifestations MaDICS : Le GDR MaDICS labellise des Manifestations comme des conférences, workshops ou écoles d’été. Toute demande de labellisation est évaluée par le Comité de Direction du GDR. Une labellisation rend possible un soutien financier pour les jeunes chercheuses et chercheurs. Une labellisation peut aussi être accompagnée d’une demande de soutien financier pour des missions d’intervenants ou de participants à la manifestation.
Pour en savoir plus… - Réseaux MaDICS : pour mieux cibler les activités d’animation de la recherche liées à la formation et à l’innovation, le GDR MaDICS a mis en place un Réseau Formation destiné à divers publics (jeunes chercheurs, formation continue,…), un Réseau Innovation pour faciliter et intensifier la diffusion des recherches en Big Data, Sciences des Données aux acteurs industriels et un Club de Partenaires qui soutiennent et participent aux activités du GDR.
Pour en savoir plus… - Espace des Doctorants : Les doctorants et les jeunes chercheurs représentent un moteur essentiel de la recherche et le GDR propose des aides à la mobilité et pour la participation à des manifestations MaDICS.
Pour en savoir plus… - Outils de communication : Le site MaDICS permet de diffuser des informations diverses (évènements, offres d’emplois, proposition de thèses, …) liées aux thématiques de recherche du GDR. Ces informations sont envoyées à tous les abonnés de la liste de diffusion MaDICS et publiés dans un Calendrier public (évènements) et une page d’offres d’emplois.
Adhésion au GDR MaDICS : L’adhésion au GDR MaDICS est gratuite pour les membres des laboratoires ou des établissements de recherche publics. Les autres personnes peuvent adhérer au nom de l’entreprise ou à titre individuel en payant une cotisation annuelle.
Pour en savoir plus…
Manifestations à venir
Journées Ecoles Conférences et Séminaires
Actions, Ateliers et Groupes de Travail :
CODA DAE DatAstro DSChem EXMIA GINO GRASP RECAST SaD-2HN SIMDAC SimpleText TIDS
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Maison Interuniversitaire des Sciences de l’Homme
Durée : 12 mois
Contact : dbernhard@unistra.fr
Date limite de publication : 2020-08-14
Contexte :
La MISHA (Maison Interuniversitaire des Sciences de l’Homme – Alsace), en collaboration avec Huma-Num, recrute une ingénieure ou un ingénieur en ingénierie logicielle.
La Maison Interuniversitaire des Sciences de l’Homme – Alsace est une des 23 MSH du Réseau National des Maisons des Sciences de l’Homme (RNMSH). Elle a le Statut d’Unité de Service et de Recherche (USR n°3227). L’Université de Strasbourg, le CNRS et l’UHA sont les trois tutelles. La MISHA héberge, dans 6 000 m², 4 UMR, 1 Labex, 2 GIS, une bibliothèque universitaire, les PUS et l’USIAS. La MISHA, comme toutes les MSH, a quatre missions principales : un rôle de relais et redéploiement des TGIR nationales, un rôle de mutualisation de services dédiés à la recherche en SHS, une mission d’incubation, notamment pour des projets pluridisciplinaires et enfin de fédération au sein de la communauté de recherche en SHS du site.
Le poste sera inscrit au sein de la nouvelle Plateforme Humanités Numériques (PHUN) , une des deux plateformes numériques hébergées à la MISHA. PHuN a entre autres comme mission d’être le relais de la TGIR Huma-Num pour la réponse aux besoins en technologies numériques des chercheurs en SHS des sites universitaires alsaciens.
Sujet :
La personne recrutée aura pour mission de participer à une ou plusieurs phases du cycle de vie d’applications en lien avec la gestion de données de la recherche en sciences humaines, selon les besoins communiqués par la très grande infrastructure de recherche (TGIR) Huma-Num et la direction scientifique de la MISHA. Elle servira également de relais et d’intermédiaire avec la TGIR Huma-Num lors de la mise en œuvre de projets de recherche dans le cadre de la plateforme PHUN de la MISHA.
Profil du candidat :
Diplôme : Licence ou plus
Domaine de formation souhaité : filière informatique
Formation et compétences requises :
Méthodologie de conduite de projet
Génie logiciel
Méthodes de modélisation et de développement
Frameworks : Vue.js, Django
Langage de programmation : PHP, Python, Java
Langages XML, HTML, CSS et JavaScript
Systèmes de gestion de base de données relationnelles, NoSQL ou basées sur XML
3D (souhaitable)
Adresse d’emploi :
Maison Interuniversitaire des Sciences de l’Homme – Alsace
Document attaché : 202006241237_MISHA__ingenieur_logicielV2.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : L@bISEN Yncréa Ouest, Equipe Vision-AD
Durée : 3 ans
Contact : maher.jridi@isen-ouest.yncrea.fr
Date limite de publication : 2020-08-20
Contexte :
Dans l’usine du future, la chaîne logistique doit s’adapter pour garantir les échanges d’informations nécessaires afin d’optimiser le processus de production. Le système d’information logistique acquiert un grand nombre de données sur l’état du matériel, les stocks et les ressources humaines disponibles. Les objets connectés sont installés le long de la chaîne de production pour enregistrer les indicateurs clés permettant de superviser le matériel utilisé.
Sujet :
** Projet **
Cette thèse se déroulera en collaboration avec une entreprise qui souhaite évoluer vers une plus grande digitalisation de ses ateliers de production et un contrôle de la production en fonction des données générées.
Des plateformes de recherche indépendantes des fournisseurs de machines ont été créées, comme par exemple celle créée par SmartFactoryKL appelée « Industrie 4.0 production plant ». Ce peut être un exemple d’un cadre de recherche intéressant le cas échéant.
** Problématiques **
L’analyse de l’information (disponibilité des produits et ressources, état du matériel, etc…) en temps réel et la prévision de l’évolution de la fabrication permettent d’ajuster le fonctionnement de l’appareil de production pour plus d’efficacité. Pour cela, des algorithmes basés sur l’intelligence artificielle ont pour objectif de prendre les décisions appropriées permettant de mieux gérer le fonctionnement des machines afin d’optimiser la production.
L’optimisation du routage entre les ateliers d’une usine, l’optimisation du nombre des interventions sur le matériel, le contrôle de la consommation d’énergie la détection d’anomalie ou la prédiction des activités de maintenance sont des applications candidates pour être traitées dans ce sujet. Le contexte de cette thèse concerne l’enregistrement de données en temps réel. Des capteurs enregistrent au fil de l’eau les paramètres spécifiques au matériel de l’usine, afin que les recommandations du système soient ajustées en fonction de l’historique des données et la prise en compte des informations immédiates.
** Approches méthodologique et technique envisagées **
Une fois la plate-forme d’acquisition des données en place, le travail de recherche sera dédié à l’élaboration de nouvelles approches combinant les méthodes d’apprentissage et les méthodes de recherche opérationnelle.
Les différentes étapes envisagées pour cette thèse sont :
– L’analyse des besoins de l’ (ou des) entreprise(s) étudié(es)
– La définition de la plateforme technique permettant de collecter les data
– La mise en place des équipements (capteurs de données) au sein de l’entreprise
– La collecte, le traitement et le stockage des données
– L’élaboration des modèles innovants d’apprentissage et/ou d’optimisation adaptés au problème à résoudre
– L’étude des modèles et plus particulièrement de leurs propriétés mathématiques
– Définition de méthodes de résolution innovantes basées sur les techniques avancées de mathématiques appliquées
o méthodes d’énumérations optimisées définies en fonction des propriétés mathématiques du problème
o méthodes innovantes d’apprentissage profond
– Développement d’un logiciel prototype afin d’évaluer les performances des nouvelles approches proposées
Profil du candidat :
– Avoir une aptitude au développement d’infrastructures pour collecter des données (data lake management en Python, Spark, Hadoop, Scala…) .
– Avoir un vif intérêt pour la recherche scientifique et plus spécialement les outils de modélisation mathématiques, d’analyse de données et d’apprentissage.
Formation et compétences requises :
La ou le candidat(e) doit avoir un diplôme de Master et/ou Ingénieur dans des domaines liés au génie industriel et/ou informatique.
Adresse d’emploi :
35 Avenue du Champ de Manœuvre, 44470 Carquefou
ou
20 Rue Cuirassé Bretagne, 29200 Brest
Document attaché : 202006110936_These usine du future.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : L@bISEN Yncréa Ouest, Equipe Vision-AD
Durée : 24 mois
Contact : maher.jridi@yncrea.fr
Date limite de publication : 2020-08-20
Contexte :
Les compagnes sous-marines pour des applications de défense et d’observation sont opérées par des drones équipés de caméras sous-marines en soutient aux dispositifs acoustiques. Avec l’augmentation des besoins de surveillance et de contrôle du milieu sousmarin, ces drones gagnent en autonomie pour pouvoir opérer avec un minimum d’intervention humaine. L’amélioration de l’autonomie reste un enjeu majeur en termes de réduction des couts et du renforcement de la sécurité des opérateurs. Dans ce contexte, l’utilisation des caméras sous-marines est une solution efficace qui présente plusieurs avantages. Toutefois, l’amélioration de l’intelligence à embarquer dans les drones pose un certain nombre de verrous technologiques. Le choix des algorithmes de vision à embarquer dans le drone doit prendre en compte l’environnement sous-marin comme la turbidité et la faible luminosité. Les techniques de conception d’algorithmes de vision sur des architectures hybrides et reconfigurables dynamiquement doivent permettre une répartition efficace des différents blocs à concevoir sur les différents éléments du système reconfigurable. Enfin, dans le cas de suivi de cible en mouvement, ou de l’impossibilité de poursuite de mission, le modèle d’apprentissage construit par un nœud (un drone) doit pouvoir être transmis à d’autres nœuds d’observation pour prendre le relais.
Sujet :
** Projet
En vision par ordinateur, le suivi de cibles (c.-à-d. le tracking) est une tâche complexe mais largement étudiée dans la littérature scientifique. En particulier, les approches mises au point cherchent à effectuer des suivis sur le long terme permettant de suivre un objet dans la durée, voir indéfiniement. Ces techniques se heurtent à de nombreux verrous techniques tels que la disparition temporaire de l’objet à suivre ainsi qu’à son changement d’apparence forme au cours du temps (objet déformable, changement de point de vue, changement de luminosité, dégradation…). Afin de dépasser ces contraintes, deux principales approches sont souvent utilisées : le suivi ou la détection.
Dans le premier cas, l’objet est suivi image par image après une phase d’initialisation. Cette approche permet un suivi continu et rapide mais avec une dérive importante au cours du temps à cause de l’accumulation des erreurs et des occultations de la cible. Dans le second cas, l’objet est détecté indépendamment sur chaque image en utilisant une référence connue surpassant ainsi les faiblesses de l’approche précédente. Cependant, ces approches nécessitent de connaître l’objet à suivre et s’appuient souvent sur des algorithmes lourds d’apprentissage automatique.
Afin de tirer parti de ces deux approches, l’algorithme Tracking-Learning-Detection (c.-à-d. TLD) propose de les combiner. La partie tracking cherche à suivre la cible image par image, la partie détection localise l’objet dans la scène et corrige le tracker si nécessaire et enfin, la partie learning estime les erreurs du détecteur et le corrige. L’un des points forts de cette approche, outre le fait qu’elle décorrèle les parties suivi et détection est son paradigme d’apprentissage. En effet, dans celui-ci, les erreurs sont estimées par deux « experts » qui permettent de repérer respectivement les détections manquées et les mauvaises détections. Ainsi, les erreurs commises par chaque expert sont compensées par leur indépendance. Il faut noter que l’algorithme TLD est mentionné comme exemple, l’étude pourra inclure d’autres algorithmes d’intelligence artificielle comme ceux en lien avec les réseaux de neurone pour la phase de reconnaissance.
** Problématique
L’utilisation de l’algorithme TLD pose des contraintes liées à son embarquabilité sur des cibles reconfigurables. En effet, cet algorithme est très coûteux en termes de ressources de calcul quand il est employé pour suivre des objets n temps-réel. Ainsi, il est peu envisageable de l’implémenter sur des CPU embarqués, qui offrent en général des performances de calcul limitées. Des travaux disponibles dans la littérature démontrent la possibilité d’implémenter le TLD sur des architectures de type FPGA. Cependant, cette approche présente deux inconvénients majeurs. D’une part, certaines parties de l’algorithme TLD sont nettement moins lourdes que d’autres en termes de calculs, et bénéficieraient donc d’être exécutées sur un CPU plutôt que sur un FPGA. D’autre part, une approche statique sur FPGA fait que les ressources sont réservées pour le TLD même lorsque celuici n’en aurait pas besoin. L’idée de ce projet est donc de développer une architecture hybride à la fois basée sur un CPU et un FPGA, et dynamique basée sur les principes des systèmes temps réels, adaptée à l’algorithme de TLD. La dynamicité au niveau du FPGA peut être obtenu via la technique de reconfiguration dynamique partielle, qui permettra alors l’abstraction d’unités de calculs matérielles en tâches pouvant être chargées/libérées du FPGA en cours d’exécution. Cette approche présente l’avantage de pouvoir utiliser le sytème pour d’autres applications moins critiques lorsque l’algorithme principal n’a pas de calculs à effectuer.
Un autre volet à traiter dans ce sujet est lié à l’utilisation du TLD dans une meute de drones. Nous nous n’occupons pas des techniques de communications ou de sécurisation du canal de transmission, mais plutôt de l’adaptation de l’algorithme TLD à fonctionner sur un drone qui n’a pas vu la scène, ni la cible à suivre. Il s’agit là d’un volet d’innovation important qui n’a pas encore été traité dans la littérature.
** Approches méthodologique et technique envisagées
L’algorithme TLD sera implanté sur une carte dédiée de type multi-CPU FPGA (ex. ZYnqUltrascale). L’architecture logicielle amène de la flexibilité notamment dans l’acquisition des données (caméra, capteur), alors que le FPGA est utilisé comme accélérateur matériel des fonctions de traitement d’images.
L’approche scientifique proposée dans ce travail consiste de partir d’un système d’acquisition d’images fonctionnel sur SoPC Ultrascale, dans un environnement indoor, de l’étendre pour inclure dans un premier temps l’algorithme TLD, puis pour l’utiliser dans le contexte de drones sous-marins.
L’utilisation de la reconfiguration dynamique partielle du FPGA dans le SoPC est primordiale afin de démontrer la faisabilité de cette technique et son apport dans des applications réelles sous contraintes.
Profil du candidat :
– La ou le candidat(e) doit avoir une expérience dans le cadre de sa thèse ou de projets réalisés dans le domaine de reconfiguration dynamique partielle des FPGA et/ou en vision par ordinateur. La maitrise des outils de conception et de synthèse de haut niveau sont nécessaires (Exemple : chaine Vivado ou équivalent, HLS, C/C++, VHDL, …).
– Les publications scientifiques dans les domaines de l’électronique numérique et la vision par ordinateurs seront appréciées lors de la sélection du candidat.
Formation et compétences requises :
– La ou le candidat(e) doit avoir un diplôme de doctorat (ou en cours d’obtention) en électronique numérique, informatique embarquée ou vision par ordinateur. La ou le candidat(e) peut avoir un diplôme d’ingénieur avec une expérience 3 ans dans les domaines susmentionnés.
Adresse d’emploi :
20 Rue Cuirassé Bretagne, 29200 Brest
Document attaché : 202006230657_Postdoc_LabISEN.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : ISIMA
Durée : CDI
Contact : ftoumani@isima.fr
Date limite de publication : 2020-08-31
Contexte :
Enseignement:
L’Institut d’Informatique ISIMA est une composante interne de l’UCA. Cet institut regroupe les formations de licence d’informatique (environ 450 étudiants), de master d’informatique (environ 150 étudiants), et le diplôme d’ingénieur en informatique ISIMA (environ 400 étudiants).
Recherche:
La candidate/le candidat intégrera le Laboratoire d’Informatique, de Modélisation et d’Optimisation des Systèmes (LIMOS, UMR CNRS 6158, https://limos.fr) et mènera ses activités de recherche au sein de l’axe
MAAD (Modèles et Algorithmes de l’Aide à la Décision) du LIMOS. Les travaux de l’axe MAAD portent sur la modélisation, l’optimisation numérique et combinatoire et l’algorithmique des graphes et des treillis. Les études menées mettent en jeu des modèles et méthodes mathématiques avancés et les articulent avec des développements logiciels.
Sujet :
Enseignement:
La candidate / le candidat s’intègrera à l’équipe pédagogique de l’Institut d’Informatique ISIMA, constituée d’environ 45 enseignants et enseignants-chercheurs. La candidate / le candidat aura vocation à participer aux
tâches collectives et aux missions d’intérêt général de l’Institut, en prenant à court ou moyen terme une responsabilité d’année ou de parcours.
La candidate / le candidat sera susceptible d’intervenir sur tous les diplômes de l’Institut (licence, master et diplôme d’ingénieur). Les besoins d’enseignement concernent principalement le génie logiciel, le développement en C++ (incluant le polymorphisme, les templates, etc.), et le développement web et mobile.
Recherche:
Sans pour autant exclure des dossiers de qualité s’inscrivant dans un des axes du laboratoire, le profil recherché concerne en première priorité la thématique suivante :
• Optimisation numérique et ses applications, programmation numérique.
et en deuxième priorité, les thématiques suivantes :
• Optimisation combinatoire ; Recherche opérationnelle.
Informatique théorique et Algorithmique.
Profil du candidat :
Aptitude à traiter les sujets ci-dessus. Cf. détails dans le fichier joint.
Formation et compétences requises :
Doctorat en informatique et / ou mathématiques appliquées
Adresse d’emploi :
Campus des Cézeaux, 63178 Aubière (près de Clermont-Fd)
Document attaché : ISIMA_27_MCF_0863.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : IMT Atlantique
Durée : 18 months
Contact : francois.rousseau@imt-atlantique.fr
Date limite de publication : 2020-09-01
Contexte :
Research at IMT Atlantique involves nearly 800 people, including 290 teachers and researchers and 300 PhD students, and is on digital technology, energy and environment. It covers all disciplines (from the physical sciences to humanities and social sciences through those of information and knowledge) and covers all fields of science and information and communications technology.
This post-doctoral fellowship will take place in IMT Atlantique (LaTIM and LabSTICC labs), at Brest campus. The project will be carried out in close collaboration with IRISA (Vannes) and LETG (Rennes). Travel will be planned between the 3 sites.
Starting date : Octobre 2020
Funding : Labex CominLabs (DynaLearn project)
Sujet :
Artificial intelligence has experienced a particularly strong growth in recent years and is revolutionizing the way data processing issues are addressed. Machine learning (more specifically deep learning) has entered a new era that opens up many opportunities. Because of the development of new algorithms, the multiplication of available data sets and a tenfold increase in computing power, the number of applications is soaring, enabling Machine Learning to tackle tasks that seemed unthinkable a few years ago (such as in computer vision, natural language processing or generative modeling).
However, deep learning methods are used in many cases on a purely empirical basis without profound mathematical understanding of their behavior. In order to go beyond the “performance” aspect, it is necessary to provide a solid mathematical framework to study the properties of these approaches and their limitations. Studies on adversarial examples have shown in particular that there are significant obstacles to the use of these methods for applications requiring a high level of safety such as autonomous driving or analysis of medical data. Establishing connections between deep learning and successful mathematical concepts can lead to new major insights about these modern approaches. It is therefore a challenge to restate these new techniques using a well-defined mathematical framework that allows for a thorough analysis of the phenomena at stake.
While most current work focuses on the raw performance of deep learning approaches, and their application to various fields of study, there is a clear lack of understanding of these approaches and the mathematical tools to study their behaviour in real-world applications.
The dynamical system-based approach makes it possible to formalize the evolution of the flow in deep architectures, and to precisely define the evolution equation and associated properties. The considered theoretical background builds upon the relationship between fluid dynamics, information geometry and machine learning. Broadly speaking, geodesic flows can be regarded as solutions of Euler equations in fluid dynamics [Arnold1966]. As such, deep learning architectures can be viewed as numerical schemes for geodesic flow estimation. ResNet architectures are a typical example, which relates to ODE solvers [Rousseau2019]. This also bridges to the optimal transport problem, which amounts to geodesic flows under volume-preserving constraints [Brenier1989]. These approaches could also be useful to enforce desired regularity properties in the learned models, relating to current approaches in the community to constrain Lipschitz constants or Sobolev norms of neural networks [Zhou2019].
The overall objective of this postdoc is to introduce physically-driven knowledge into the learning process, and more specifically to develop a mathematical framework enabling an analogy between the learning process and the estimation of a flow resulting from a physical equation with well-controlled properties. Linking well-grounded fluid dynamics-based formulations with the learning process will lead to the development of new numerical tools to study neural networks. More specifically, we will focus on: 1) dynamical systems described by known physical equations with the associated numerical scheme corresponding to a specific network architecture, 2) characterization of the learning process from a dynamical system point of view, 3) the flow of information expressed as a flow between metric spaces (Sliced Gromov-Wasserstein [Vayer2019]).
As applications, the performance of physically-driven models will be assessed on low-dimensional datasets. Standard learning datasets will also be considered. In a second step, we will focus on image processing applications, such as super-resolution and image synthesis, which are currently being studied in the community through Generative Adversarial Networks (GANs), and cycle-GAN framework for unsupervised setting.
Profil du candidat :
PhD degree in learning, data processing or applied mathematics
Formation et compétences requises :
Required skills: machine learning, data processing, programming (python, pytorch).
Adresse d’emploi :
IMT Atlantique, Technopole Brest Iroise, 29238 Brest, France
Document attaché : 202005050659_2020-DynaLearn-Postdoc_uk.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : IAE Savoie Mont Blanc – LISTIC
Durée : CDI
Contact : recrutement.listic@univ-smb.fr
Date limite de publication : 2020-09-01
Contexte :
IAE Savoie Mont Blanc
Laboratoire d’Informatique, Systèmes, Traitement de l’Information et de la Connaissance (LISTIC)
Sujet :
Enseignement : la/le candidat/e devra s’insérer majoritairement dans le projet de la formation MIAGE porté par l’IAE Savoie Mont Blanc et devra participer activement à l’équipe pédagogique de cette formation (équipe pluridisciplinaire). Des formations (parcours de licence et de masters) de l’IAE Savoie Mont-Blanc forment des étudiants à différents métiers qui s’inscrivent dans le contexte de la transformation/transition numérique des entreprises et de l’industrie 4.0 (IoT, systèmes cyber-physiques,…). Ces métiers reposent sur des compétences managériales et des compétences spécifiques en informatique de gestion des entreprises. Les enseignements porteront ainsi sur différents domaines de l’informatique de gestion, de l’ingénierie logicielle et ingénierie des systèmes d’information. Plus précisément, la/le candidat/e devra pouvoir, à terme, participer aux enseignements suivants : bases de données (réparties et non réparties); architectures de SI distribués (Cloud, architectures orientées services,…); algorithmique, conception et programmation orientées objet (Python, Java), programmation Web (Javascript et frameworks: ex. Node.js) et programmation mobile (Android); méthodes agiles et génie logiciel ; méthodes statistiques, probabilités pour l’analyse de données. La prise de responsabilités pédagogiques est à envisager dans un futur proche.
Recherche : la personne recrutée s’intègrera dans le thème ReGaRD (Représentation, Gestion et tRaitement des Données pour l’humain) du LISTIC. Ce thème s’intéresse entre autres aux problématiques :
intelligence artificielle et cybersécurité ; analyse de graphes issus de données économiques, sociales et de gestion ; systèmes de recommandation ; systèmes d’informations distribués. Les domaines d’application de ces thématiques tournent autour de l’humain, ils peuvent être : transition numérique des entreprises (entreprise 4.0) ; cloudification, gestion et traitement de données réparties ; habitat et ville intelligente.
Profil du candidat :
Enseignement : les entreprises sont aujourd’hui confrontées au développement de systèmes et d’applications logiciels distribués de traitement de données massives et d’aide à la décision. La/le candidat/e devra montrer de réelles compétences en ingénierie d’applications logicielles, ingénierie des systèmes d’information et des compétences en science des données. Ces compétences viendront renforcer les équipes de l’IAE les enseignements en data science.
Recherche : le/la candidat/e devra montrer sa capacité à s’intégrer au thème ReGaRD. Des compétences facilitant des convergences avec le second thème du LISTIC (AFuTé : Apprentissage, Fusion et Télédétection) seront appréciées.
Formation et compétences requises :
Le/la candidat/e devra être titulaire d’un doctorat lui permettant de s’intégrer au sein des activités du thème ReGaRD.
Adresse d’emploi :
4 Chemin de Bellevue
Annecy-le-Vieux
74940 Annecy
Document attaché : 519-MCF27_IAE_LISTIC-2020_Affichage.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : IMT Mines Saint-Etienne
Durée : CDI
Contact : leriche@emse.fr
Date limite de publication : 2020-09-01
Contexte :
Département Génie Mathématique et Industriel (GMI) des Mines de Saint-Etienne.
Laboratoire LIMOS (UMR CNRS)
Sujet :
Enseignement
La mission d’enseignement consiste à assurer, prendre en charge et proposer des cours, des travaux dirigés et pratiques, ainsi que des encadrements de projets et de stages, en priorité dans la formation d’Ingénieur Civil des Mines. L’enseignement peut couvrir un spectre large parmi les enseignements de mathématiques dispensés au sein de la formation initiale, sans pour autant devoir être exhaustif sur l’ensemble dans les cours parmi les enseignements dispensés (les méthodes numériques, les probabilités et statistiques, la Sciences de Données, le traitement du signal, les plans d’expérience et cartes de contrôle, la maitrise statistique des procédés, l’optimisation, la recherche opérationnelle et l’aide à la décision). Les enseignements pourront également concerner d’autres programmes de formation : master recherche Maths en Action, formation doctorale de l’EDSIS, formation continue et sous statut salarié. Ces missions seront faites en partenariat les équipes pédagogiques en charge des filières de formation citées ci-dessus.
Recherche :
Dans le cadre de la thématique Science des données et Mathématiques Appliquées ses activités de recherche et ses missions associées seront développées dans le Laboratoire d’Informatique, de Modélisation et d’Optimisation des Systèmes (LIMOS, UMR CNRS 6158, http://limos.isima.fr), et devront s’intégrer à un des deux thèmes suivants du laboratoire:
* le thème Données, Services et Intelligence (DSI) de l’axe Systèmes d’Information et de Communication (SIC), dédié aux questions liées à la gestion et à l’optimisation de grandes masses de données et à leur analyse via des techniques de fouille de données et d’apprentissage statistique
automatique ainsi qu’à l’analyse et à la vérification d’applications (services web et processus métier)
* le thème Métamodélisation, Optimisation Continue et Application (MOCA) de l’axe Modèles et Algorithmes de l’Aide à la Décision (MAAD), concerne la gestion de modèles et leurs applications en particulier en optimisation continue. En termes de modélisation, on retrouve la simulation numérique de systèmes physiques et la méta modélisation qui est un apprentissage supervisé utilisant une quantité limitée de données. Les études menées mettent en jeu des modèles et méthodes mathématiques avancées et les articulent avec des développements logiciels.
Ces missions devront contribuer à renforcer les activités de recherche existantes avec une implication forte dans les activités en lien avec l’industrie du futur ; notamment avec la participation aux Chaires
OQUAIDO – Optimisation et QUAntification d’Incertitudes pour les Données Onéreuses – liés à l’exploitation des simulateurs numériques (quantification d’incertitudes, l’inversion et l’optimisation), ou ValaDoE – VALeur Ajoutée DOnnées et Energie liée à l’émergence de solutions innovantes pour la
transition énergétique et les réseaux d’énergie.
Profil du candidat :
La personne recrutée viendra renforcer les compétences du département GMI, sur le thème Science des données et Mathématiques Appliquées et devra disposer d’une compétence avérée dans un ou plusieurs domaines suivants :
– L’apprentissage statistique automatique,
– Le traitement des données volumineuses ou hétérogènes,
– L’analyse des données non fiables,
– Les modèles probabilistes pour les données rares ou onéreuses,
– La maitrise statistique des procédés,
– L’optimisation stochastique ou la méta-modélisation,
– L’identification ou le contrôle optimal liés aux modèles directs ou inverses.
Une sensibilisation aux spécificités liées aux données fonctionnelles, spatio-temporelles ou catégorielles sera appréciée.
Formation et compétences requises :
Le candidat devra être titulaire d’un doctorat relevant du domaine de la Modélisation stochastique des Méthodes statistiques en lien avec l’analyse de données – l’apprentissage automatique et/ou en Méthodes directes et inverses pour l’Identification/contrôle optimal.
Adresse d’emploi :
Campus de Saint-Etienne (42) de Mines Saint-Etienne
Document attaché : EMSE_MdC_MathsAppli_2020.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Polytech Annecy-Chambéry – LISTIC
Durée : CDI
Contact : recrutement.listic@univ-smb.fr
Date limite de publication : 2020-09-01
Contexte :
Ecole d’Ingénieurs Polytech Annecy-Chambéry
Laboratoire d’Informatique, Systèmes, Traitement de l’Information et de la Connaissance (LISTIC)
Sujet :
Enseignement : la personne recrutée assurera d’une part des enseignements de génie informatique et de programmation dans le tronc commun à l’ensemble des spécialités ingénieurs de l’école et d’autre part des enseignements de spécialité en traitement des données et en apprentissage automatique dans les spécialités IAI (Instrumentation – Automatique – Informatique) et IDU (Informatique – Données – Usages).
Recherche : l’activité de recherche de la personne recrutée s’intègrera dans le thème AFuTé (Apprentissage, Fusion et Télédétection) du LISTIC. Ce thème développe plusieurs approches théoriques et méthodologiques :
– Apprentissage automatique : apprentissage profond, fouille de données,
– Fusion de données incertaines (probabilités, possibilités, croyances),
– Traitement du signal (ondelettes et apprentissage statistique),
– Télédétection (détection de changement, mesure de déplacement, inversion).
Les domaines d’application de ces travaux sont majoritairement liés à l’analyse de données temporelles et/ou spatiales, en particulier pour la surveillance de l’environnement ou les applications privilégiées du second thème du LISTIC (ReGaRD : Représentation, Gestion et tRaitement des Données pour l’humain).
Profil du candidat :
Enseignement : dans le cadre du Génie Informatique, des connaissances et des compétences dans le domaine du traitement du signal et des images seront un atout. La personne recrutée devra s’impliquer dans la pédagogie par projet en place au sein des spécialités IAI et IDU et dans le développement de l’alternance en dernière année du cursus IDU. Une première expérience et/ou un intérêt particulier pour les pratiques pédagogiques innovantes seront appréciés. Elle devra également participer à l’encadrement des stages. La capacité à enseigner et à organiser des enseignements en anglais sera un élément positif dans le dossier de candidature.
Recherche : le candidat devra montrer sa capacité à développer ses travaux dans une des directions du thème AFuTé ou à faire le lien entre certaines d’entre elles.
Formation et compétences requises :
Le/a candidat/e devra être titulaire d’un doctorat relevant d’une ou plusieurs directions scientifiques du thème AFuTé.
Adresse d’emploi :
5 chemin Bellevue
Annecy-le-Vieux
74940 ANNECY
Document attaché : 261-MCF61_PAC_LISTIC-2020_Affichage.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : LabCom IDEAS – laboratoire L3i, entreprise Yooz
Durée : 12
Contact : muriel.visani@univ-lr.fr
Date limite de publication : 2020-09-01
Contexte :
LabCom IDEAS.
Pour plus de renseignements, voir offre ci-jointe.
English version available on request.
Sujet :
Classification de documents d’entreprise.
Pour plus de renseignements, voir offre ci-jointe.
English version available on request.
Profil du candidat :
Le candidat devra justifier d’une expérience de recherche dans au moins deux des domaines suivants :
– Apprentissage automatique / classification
– Analyse d’images
– Reconnaissance de formes
Des connaissances en Traitement Automatique de la Langue seraient appréciées.
Pour plus de renseignements, voir offre ci-jointe.
English version available on request.
Formation et compétences requises :
Titulaire d’un doctorat dans les domaines de l’informatique, du génie informatique et traitement du signal, ou des mathématiques appliquées.
Pour plus de renseignements, voir offre ci-jointe.
English version available on request.
Adresse d’emploi :
LabCom IDEAS – laboratoire L3i – La Rochelle Université
Document attaché : 202006101215_FRversion- PostDoc2020 – Classif Documents_LaRochelle.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Institut Mines Telecom
Durée : CDI
Contact : leriche@emse.fr
Date limite de publication : 2020-09-01
Contexte :
Les activités du département GMI (Génie Mathématique et Industriel) des Mines de Saint-Etienne sont centrées sur le développement de solutions mathématiques pour l’aide à la décision (probabilités, statistiques, optimisation, méta-modélisation, méthodes numériques pour la résolution de systèmes, recherche opérationnelle). Le département GMI est fortement impliqué à la fois dans le programme stratégique de l’école Mines Saint-Etienne Tech avec la plateforme Industrie du Futur, IT’mFactory, et sur les thématiques phare de l’IMT relevant de la Transition Numérique avec notamment le Data Analytics et l’IA.
La personne recrutée devra s’intégrer en recherche dans l’UMR CNRS LIMOS.
Sujet :
Enseignement
Les missions concerneront la prise en charge des actions majeures en matière d’enseignement en mathématiques appliquées : conception et/ou responsabilité de cursus ou de partie de cursus, gestion de partenariat international pour les diplômes suivants : cycle ingénieur civil des Mines, master Maths en action (MAEA), formation doctorale au sein de l’EDSIS. Comme tout enseignant de l’établissement, il sera amené à donner des cours en face à face pédagogique, et devra être en mesure de délivrer ses
enseignements en langue anglaise et de participer au développement de pédagogies innovantes.
Recherche
La personne recrutée aura la possibilité de prendre des responsabilités au sein de la thématique Science des données et Mathématiques Appliquées et des enseignements associés et de s’impliquer dans la mise en place des partenariats nationaux et internationaux et le montage de projets.
Dans le cadre de la thématique Science des données et Mathématiques Appliquées les missions seront développés dans le cadre du Laboratoire d’Informatique, de Modélisation et d’Optimisation des Systèmes (LIMOS, UMR CNRS 6158, http://limos.isima.fr). Sans pour autant exclure des dossiers de qualité, le candidat retenu devra intégrer un des deux thèmes suivants du laboratoire :
* le thème Données, Services et Intelligence (DSI) de l’axe Systèmes d’Information et de Communication (SIC), dédié aux questions liées à la gestion et à l’optimisation de grandes masses de données et à leur analyse via des techniques de fouille de données et d’apprentissage statistique automatique ainsi qu’à l’analyse et à la vérification d’applications (services web et processus métier)
* le thème Métamodélisation, Optimisation Continue et Application (MOCA) de l’axe Modèles et Algorithmes de l’Aide à la Décision (MAAD), qui concerne la gestion de modèles et leurs applications en particulier en optimisation continue. En termes de modélisation, on retrouve la simulation numérique de systèmes physiques et la méta-modélisation qui est un apprentissage supervisé utilisant une quantité limitée de données. Les études menées mettent en jeu des modèles et méthodes mathématiques avancées et les articulent avec des développements
logiciels.
Ces missions devront contribuer à renforcer les activités de recherche existantes avec une implication forte dans les activités en lien avec l’industrie du futur ; notamment avec la participation aux Chaires
OQUAIDO – Optimisation et QUAntification d’Incertitudes pour les Données Onéreuses – liés à l’exploitation des simulateurs numériques (quantification d’incertitudes, l’inversion et l’optimisation), ou ValaDoE – VALeur Ajoutée DOnnées et Energie liée à l’émergence de solutions innovantes pour la
transition énergétique et les réseaux d’énergie.
Profil du candidat :
La personne recrutée viendra piloter la thématique Science des données et Mathématiques Appliquées au sein du département GMI. Le candidat devra disposer d’une expertise reconnue dans un ou plusieurs domaines suivants:
– L’apprentissage statistique automatique,
– Le traitement des données volumineuses ou hétérogènes,
– L’analyse des données non fiables,
– Les modèles probabilistes pour les données rares ou onéreuses,
– La maitrise statistique des procédés,
– L’optimisation stochastique ou la méta-modélisation,
– L’identification ou le contrôle optimal liés aux modèles directs ou inverses.
Une bonne connaissance des spécificités liées aux données fonctionnelles, spatio-temporelles ou catégorielles sera appréciée. De même, la capacité à faire du lien avec les enseignants-chercheurs en Optimisation combinatoire ou en Recherche opérationnelle serait un plus.
Formation et compétences requises :
Le candidat devra être titulaire d’un doctorat d’Etat ou d’une Habilitation à Diriger des Recherches relevant du domaine de la Modélisation stochastique, des Méthodes statistiques en lien avec l’analyse de données – l’apprentissage automatique et/ou en Méthodes directes et inverses pour l’Identification/contrôle optimal.
Adresse d’emploi :
Campus de Saint-Etienne (42) de Mines Saint-Etienne
Document attaché : EMSE_Prof_MathsAppli_2020.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : L@bISEN Yncréa Ouest, Equipe Vision-AD
Durée : CDI
Contact : ayman.al-falou@yncrea.fr
Date limite de publication : 2020-09-01
Contexte :
L’ISEN Yncréa Ouest est une école d’ingénieur post-bac reconnue comme un établissement d’enseignement supérieur privé d’intérêt général sous contrat avec le Ministère de l’Enseignement Supérieur et de la Recherche. L’établissement est membre d’Yncréa : premier pôle privé associatif d’écoles d’ingénieurs en France. Dans l’ouest, L’ISEN Yncréa Ouest forme 1100 élèves ingénieurs sur les campus de Brest, Caen, Nantes et Rennes dans 7 domaines professionnels : Systèmes embarqués, Génie logiciel, Technologies biomédicales, Réseaux & IOT, Ingénieur de projets et d’affaires, Robotique et Énergie.
Sujet :
Activités d’Enseignement :
Une partie de votre mission sera dédiée aux activités d’enseignement en informatique, ou électronique embarquée, ou éventuellement en traitement de signal/image. De plus, vous serez amené à assurer le suivi pédagogique des étudiants dans la formation initiale.
Activités de Recherche :
Les activités de recherche de l’équipe d’accueil (LSL) sont centrées essentiellement sur l’imagerie hyperspectrale/polarimétrique et l’lA. Avec ce poste, nous souhaiterions enrichir nos activités pour couvrir des domaines plus larges que la Vision RGB (caméras classiques) avec des capteurs hétérogènes issus du domaine des objets connectés (IoT). Le but étant de renforcer nos performances décisionnelles pour couvrir des domaines comme la sécurité des biens et des personnes, l’e-santé, technologie sous-marines etc. En complétant l’information provenant des images par celles issues des capteurs hétérogènes (caméras hyper spectrale, capteurs environnementaux, …), nous souhaitons améliorer notre levée de doutes. Vos compétences en intégration des capteurs IoT avec nos plateformes existantes (serre connectée, chambre connectée living lab, , seatestbase, etc) devraient permettre d’enrichir la prise de décision à travers l’analyse des données acquises et stockées en bases de
données. Ainsi vos activités pourrait s’orienter vers le domaine de l’intelligence artificielle appliquée plus précisément aux aspects applicatifs des algorithmes d’apprentissages automatiques, de big-data, et de deep-learning.
Possédant une forte appétence pour la gestion de projet et le travail en équipe, vous êtes capable de diriger nos partenaires sur tous les sujets techniques affairant au développement de nos objets connectés.
Vos activités R&D donneront lieu à :
– Prospection du marché
– Développement de solutions R&D
– Gestion de projets industriels
– Suivi de relations industrielles
– Encadrements de stagiaires, thésards
– Participation aux productions scientifiques de niveau international.
– etc.
Activités administratives :
– Gestion de projet
– Réponse à des appels à projets
– etc.
Profil du candidat :
– une expérience en entreprise ou postdoc dans le domaine liés au développement IA sera un plus.
Formation et compétences requises :
– Docteur en IA
– ingénieur ( IOT ou robotique) de formation ou équivalent
Adresse d’emploi :
20 Rue Cuirassé Bretagne, 29200 Brest
Document attaché : 202006091010_RecrutementIA-15-04-2020.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : MSH Val de Loire
Durée : 1 an
Contact : beatrice.markhoff@univ-tours.fr
Date limite de publication : 2020-09-12
Contexte :
La TGIR Huma-Num soutient la création d’un dispositif expérimental d’ancrage en région à la MSH Val de Loire, fondé sur le renforcement de la dynamique de l’Atelier Numérique à travers les projets engagés à Orléans et Tours et en relation avec quatre des huit consortiums d’Huma-Num autours de la linguistique (CORLI), de la littérature (CAHIER), de l’archéologie (MASA) et de la 3D (3D-SHS). Dans ce cadre, la MSH Val de Loire concentrera ses efforts sur le web sémantique en collaboration entre les laboratoires SHS du périmètre de la MSH, ceux d’informatique et la société SPARNA.
Sujet :
En collaboration avec l’ingénieur en charge de la publication des jeux de données, déployer un éditeur graphique de requêtes sur un graphe de données liées, écrit en Javascript (Sparnatural), pour les différentes disciplines des SHS et travailler à son intégration avec différentes plateformes d’exposition de données dans le web sémantique. La recherche portera sur l’interrogation simultanée de graphes de données indépendants, selon des processus de fédération de requêtes ou de médiation.
Profil du candidat :
Bon développeur, initié à la recherche, sensibilisé à l’importance d’une bonne communication (travail d’équipe).
Formation et compétences requises :
Doctorat ou diplôme d’ingénieur ou master en informatique
Adresse d’emploi :
Maison de Sciences de l’Homme Val de Loire, 33 allée Ferdinand de Lesseps, Tours
Document attaché : 202009041405_Offre emploi HumaNum MSH VdL.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : ICube / Université de Strasbourg
Durée : 36 months
Contact : wemmert@unistra.fr
Date limite de publication : 2020-09-15
Contexte :
In the context of the european project Mi*EDGE, the Engineering science, computer science and imaging laboratory (ICube, Strasbourg, France), associated with the Institute of Research in Computer Science, Mathematics, Automatics and Signal processing (IRIMAS, Mulhouse, France), opens a postdoctoral position for a computer scientist, in the field of artificial intelligence and histopathological whole slide images and MRI analysis, with a duration of 36 months (2020/07/01 – 2023/06/30)
Sujet :
The appointee will work in close collaboration with all the partners of the project to develop the methodology for WSI analysis, spatial patterns extraction and the machine learning approach to classify automatically histopathological and MRI images.
More specifically, the objective is to develop a complete methodology enabling to generate quantitative neuroimaging and histopathology data to calibrate the model, including spatially resolved data on tumor cell density and spatial distribution of macrophages, microglia and tumor cells in histology. Image analysis will automatically define and delineate GBM regions (core, invasion/transition zones) and exclude irrelevant areas (necrosis, bleeding, artefacts). Densities and interaction patterns of GBM in a spatially resolved, region specific way are provided to inform mathematical modeling and analyze biopsy-based and in-vitro data.
The work will also consist in developing a deep learning-based tool to distinguish relapse from pseudo-progression. Based on MRI-neuroimaging, the objective is to develop a new deep learning approach to automatically obtain a 3D segmentation of the GBM at each time and automatically analyse the evolution to differentiate between relapse and pseudo-progression.
Profil du candidat :
Computer scientist, with a strong background on machine learning and image analysis.
Formation et compétences requises :
The candidate should hold a PhD in computer science (preferably in computer vision or machine learning) and have excellent English skills (both written and oral).
Demonstrated experience in Python programming and Keras/Tensorflow or Pytorch libraries will be mandatory.
Adresse d’emploi :
ICube laboratory
300 bvd Brant
67400 ILLKIRCH (FRANCE)
Document attaché : 202006290619_2020___mi_EDGE_postdoc_position.pdf
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : LIRIS UMR 5205
Durée : 12 mois
Contact : veronique.eglin@insa-lyon.fr
Date limite de publication : 2020-09-30
Contexte :
Le Postdoc s’inscrit dans le cadre du projet Région Auvergne-Rhône-Alpes Study qui vise à développer une solution globale d’apprentissage de l’écriture grâce à un dispositif phygital et naturel permettant un entraînement régulier à la copie et à la dictée. Cet entraînement réalisé dans des conditions permettant l’engagement de l’enfant, contribue à l’acquisition par ce dernier de la maîtrise de micro-motricité liée à l’écriture mais aussi à l’acquisition de compétences solides en matière d’orthographe lexicale et grammaticale.
La collaboration avec la société AMI et le LIRIS permettra à la technologie Extrapage (de la société partenaire Super Extra Lab) la création d’un tableau de bord pour les enseignants et adultes permettant un suivi précis des élèves et la détection de difficultés dans l’apprentissage de l’écriture liées à une dysorthographie par l’apport de méthodes de fouille de séquences décrivant le tracé de l’apprenant.
Sujet :
Mise en place d’un système de caractérisation et de reconnaissance reconnaissance d’écriture manuscrite on-line fondé sur l’approfondissement d’outils existants développés dans le laboratoire et la littérature déjà dotée d’un état de l’art conséquent sur les questions de la reconnaissance en ligne de l’écriture. La seconde partie du travail vise à produire une méthode dédiée de pointage des difficultés rencontrées ou des erreurs et à fournir une description des ces erreurs (typologie des patterns d’erreurs et fréquence d’apparition, caractérisation morphologique des traits et des lieux pointés d’erreurs) ainsi que des indicateurs de progression dans les apprentissages.
Profil du candidat :
Diplômé niveau doctorat en informatique dans un des domaines suivants: apprentissage automatique, data mining, computer vision
– aisance dans le cadre d’un travail de groupe pluridisciplinaire, ouverture et communication avec des spécialistes des sciences cognitives et neurosciences, autonomie et capacité à prendre des initiatives
-participation et implication aux réunions du projet Région ARA STUDY R&D Booster
-vulgarisation scientifique dans le cadre de la pluralité scientifique
Formation et compétences requises :
– Doctorat en informatique dans un des domaines : apprentissage automatique, data mining, computer vision
-Compétences: reconnaissance de l’écriture en ligne, reconnaissance de formes, string et pattern mining, apprentissage automatique (deep learning)
-maîtrise des environnements de développement, en particulier de la programmation C++ et usage de la libraire OpenCV, librairie de deep learning (tensorflow, Pytorch, Keras), réalisation de prototype fonctionnel
Adresse d’emploi :
Equipe Imagine- LIRIS, campus de la Doua, INSA de Lyon
20 avenue Albert Einstein
6621 Villeurbanne Cedex
Document attaché : 202008190355_FichePoste_STUDY_PostDoc2020.pdf
Offre en lien avec l’Action/le Réseau : – — –/Doctorants
Laboratoire/Entreprise : LIB (Laboratoire d’Informatique de Bourgogne)
Durée : 12-18 months
Contact : ana-maria.roxin@u-bourgogne.fr
Date limite de publication : 2020-09-30
Contexte :
Selected during the 2017 ANR call for projects, the McBIM project aims at 1) designing a “communicating concrete”, made of concrete equipped with embedded low-energy wireless micro-sensor network, able to manage and exchange data with BIM platforms, and at 2) demonstrating the usefulness of this approach by implementing it for two building life cycle phases, namely the construction and exploitation phases (for structural health monitoring).
For achieving this vision of a communicating concrete, several scientific issues arise regarding: a) the design of robust wireless communications, not impacted by the concrete environment, b) the definition of innovative RF harvesting techniques to maximize the lifetime of embedded sensor nodes, c) the definition of new data management strategies controlling how data (either generated by sensor nodes, or sent by users) are spread into the WSN (Wireless Sensor Networks) for a fast and reliable data storage and retrieval, d) the definition of a knowledge base, based on IFC standard, to ensure decision-support in the considered BIM-related processes.
Sujet :
More specifically, the knowledge model used for information exchange must respect the concepts present in the IFC standard. The following tasks can be envisioned : (1) define the a minima knowledge model necessary for ensuring interoperability among the different actors, (2) map the required concrete data to concepts in the IFC standard, (3) ensure that the so-defined piece of information can be efficiently and securely exchanged among actors.
For doing so, a particular attention will be given to the impact the knowledge model, the exchange protocols, the web service encapsulation along with the security-related issues have of the level of efficiency of the exchange (e.g. size of the messages to be exchanged, upload frequency, data storage and modelling).
Profil du candidat :
PhD in Computer Science required.
Applicants should have a good level in French and English.
Applicants should be interested by research activities in general and be able to interact with different actors from different domains (industrials from the construction domain, as researchers from sensor networks).
Formation et compétences requises :
Applicants for this position must have a background in knowledge modelling, notably description logic-based languages such as OWL 2 DL. Skills using Semantic Web technologies for defining and adressing queries (e.g. SPARQL) along with rule languages (e.g. SWRL, SHACL) are a plus.
Applicants should also have solid skills and knowledge in the domain of Wireless (micro-)Sensor Networking, most specifically regarding efficient and secure data exchange in such environments. Knowledge in serverless architectures, cloud/fog computing and network security are also considered a plus.
Knowledge in civil engineering, architecture and/or construction are considered a plus. Applicants with an interest for the Building Information Modeling (BIM) domain should specify it in their application letters.
Adresse d’emploi :
Laboratoire LIB
9, allée Alain Savary, 21000 Dijon, France
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : Centre for Computational Biology (CBIO)
Durée : 3 years
Contact : chloe-agathe.azencott@mines-paristech.fr
Date limite de publication : 2020-09-30
Contexte :
The Centre for Computational Biology is part of Mines ParisTech, one of the major engineering schools
for applied mathematics in France. Our research is dedicated to the development of methods and
tools in the field of Machine Learning, Statistics and Computer Vision in order to analyze massive data
generated in life sciences and medicine. We work on a broad range of applications, from questions in
fundamental biology to precision medicine. The Centre for Computational Biology has a partnership
with INSERM, the French national health institute, and Institut Curie, a major hospital and research
center dedicated to cancer. This partnership provides access to the infrastructure and facilities of
Institut Curie and facilitates collaborative projects with other groups at Institut Curie, as well as data
sharing. Our laboratory is located in the heart of Paris and we therefore benefit from an exceptional
scientific and cultural environment. o not hesitate to contact me at chloe-agathe.azencott [at] mines-paristech.fr or Thomas Walter at thomas.walter [at] mines-paristech.fr if you have questions.
Sujet :
We are seeking a tenure-track researcher with PhD and postdoc experience in Machine Learning
and/or Statistics and a strong interest for biomedical/life sciences applications. The successful
candidate will work in a team of 4 permanent researchers on exciting applications in computational
biology, including genomics, drug discovery and bioimage informatics. The candidate will also have
the opportunity to develop their own line of research for which they will supervise and/or co-supervise
PhD students and Postdocs, and apply for funding. The candidate will contribute to the scientific
animation in their field of research at CBIO, Mines ParisTech and Institut Curie. Non-French speaking
candidates are also welcome. The position is a 3-year tenure track and intended to become a
permanent position.
Profil du candidat :
We are seeking a tenure-track researcher with PhD and postdoc experience in Machine Learning
and/or Statistics and a strong interest for biomedical/life sciences applications.
Formation et compétences requises :
The successful
candidate will work in a team of 4 permanent researchers on exciting applications in computational
biology, including genomics, drug discovery and bioimage informatics. The candidate will also have
the opportunity to develop their own line of research for which they will supervise and/or co-supervise
PhD students and Postdocs, and apply for funding. The candidate will contribute to the scientific
animation in their field of research at CBIO, Mines ParisTech and Institut Curie. Non-French speaking
candidates are also welcome. The position is a 3-year tenure track and intended to become a
permanent position.
Adresse d’emploi :
Institution: MINES ParisTech (Ecole Nationale Supérieure des Mines de Paris), PSL University
Research Center: Centre for Computational Biology (CBIO)
Document attaché : 202007080620_TenureTrack_ComputationalBiology_Paris_CBIO2020.pdf
Offre en lien avec l’Action/le Réseau : RoD/– — –
Laboratoire/Entreprise : LaBRI – Laboratoire Bordelais de Recherche en Info
Durée : 24
Contact : meghyn.bienvenu@labri.fr
Date limite de publication : 2020-09-30
Contexte :
Accessing the relevant information in real-world data g is difficult, time-consuming, and error-prone due to the need to integrate data across multiple heterogeneous sources. Moreover, even if this first hurdle is overcome, a perhaps even more daunting challenge arises: how to obtain reliable insights from imperfect data? It is widely acknowledged that real-world data is plagued with quality issues, such as incompleteness (missing information) and errors (false or outdated information).
The ontology-based data access (OBDA) paradigm addresses the first challenge by facilitating access to (potentially heterogeneous) data sources through the use of ontologies that specify a convenient user-friendly vocabulary for query formulation (which abstracts from the way the data is stored) and capture domain knowledge that can be exploited at query time, via automated reasoning, to obtain more complete query results. While OBDA systems are growing in maturity, they too often fail to address the data quality issue, aside from issuing warnings when inconsistencies are discovered. To widen the applicability of OBDA, it is essential to equip OBDA systems with appropriate mechanisms for handling imperfect data: how to obtain meaningful answers to queries posed over imperfect data, and how best to generate a high-quality version of the data?
The two postdoc positions are part of the INTENDED Chair on Artificial Intelligence, whose aim is to develop intelligent, knowledge-based methods for handling imperfect data. The chair project will involve both foundational work as well as a more applied component with a hospital use case. The chair begins in September 2020 and has a duration of four years. It is funded by the French National Research Agency (ANR) and the University of Bordeaux.
Sujet :
Topic 1: Holistic Approach to Data Quality in Ontology-Based Data Access
As part of the INTENDED project, we plan to develop a holistic approach to data quality in ontology-based data access (OBDA) that incorporates existing data cleaning techniques (e.g. entity linking and statistical outliers), in order to tackle a wider class of data quality issues and to improve overall results by exploiting synergies among different methods. For instance, merging distinct values using entity linking tools may both resolve violations of functionality constraints from the ontology, or bring to light additional conflicts with the ontology that would be missed otherwise, and conversely, the entity linking process could be improved by taking into account the logical constraints imposed by the ontology.
The postdoctoral researcher will participate in devising a suitable formal framework for integrating different data quality methods into the OBDA approach, and subsequently developing algorithms for computing repairs and query answering in this framework.
Topic 2: Practical Inconsistency Handling in Expressive Settings
Currently, state-of-the-art inconsistency-tolerant algorithms rely, directly or indirectly, on the first-order rewritability property, which restricts their applicability to simple ontology languages (e.g. DL-Lite, OWL 2 QL). Tackling other ontology languages (such as OWL 2 EL, a popular choice for biomedical ontologies) presents significant technical challenges, as the facts involved in contradictions cannot be efficiently identified.
The postdoctoral researcher will be involved in developing pragmatic approaches to handling inconsistencies in more expressive OBDA settings. This could include conceiving new inconsistency-tolerant query answering algorithms for more expressive ontology languages, devising optimizations, identifying interesting tractable subcases, and extending the algorithms to tackle other important features (e.g. mappings, temporal dimension) that have been little explored thus far.
Profil du candidat :
Applicants should hold (or be close to completing) a PhD degree in computer science and should have a strong research record in knowledge representation and reasoning or databases (ideally, demonstrated by at least one publication in a top-tier venue).
The precise research topic may be adjusted to suit the background and interests of the postdoctoral researcher, so brilliant candidates with an interest for the overall project topic should not hesitate to apply.
Formation et compétences requises :
Familiarity with logic and/or ontology languages is desirable.
Experience and interest in one or more of the following areas would be relevant and welcome: description logics, Semantic Web, automated reasoning, inconsistency handling, data integration, data quality, data cleaning, theoretical computer science (complexity).
Strong English language skills (reading, writing, & speaking) are expected, but knowledge of French is not required. The working language can be either French or English.
Adresse d’emploi :
Laboratoire Bordelais de Recherche en Informatique
351, cours de la Libération F-33405 Talence cedex
Document attaché : 202006231505_postdocs-intended-labri.pdf
Annonce en lien avec l’Action/le Réseau : aucun
Laboratoire/Entreprise : Inria Sophia Antipolis Méditerranée, I3S, Université Côte d’Azur
Durée : up to 3 years
Contact : franck.michel@cnrs.fr
Date limite de publication : 2020-10-01
Contexte :
Application: https://jobs.inria.fr/public/classic/en/offres/2020-02293
In the context of the DeKaloG ANR project (2020-2023) the Wimmics team at Inria Sophia Antipolis Méditerranée and I3S Université Côte d’Azur offers a Research Engineer position.
The partners are GDD from university of Nantes and BD from INSA Lyon.
The theme of the DeKaloG project is Decentralized Knowlege Graph in a Linked Open Data approach. The goal of the project is to design and implement an architecture that leverages existing Knowledge Graphs and SPARQL endpoints in such a way as to facilitate KG discovery, federated query writing and processing, transparency in data and results and efficiency.
In the context of this project, a semantic knowledge graph index must be designed, implemented and evaluated.
Sujet :
The research topic of the post doc is to design and implement a semantic index for distributed Knowledge Graphs that 1) facilitates the discovery of relevant KG for a query, 2) facilitates the writing of the query by proposing relevant entities, properties and classes, 3) enables users to query and discover relationships between KG and 4) facilitates efficient federated query compilation and execution.
Collaboration :
The recruited person will be in connection with Wimmics Inria team members (http://team.inria.fr/wimmics) and university of Nantes and INSA Lyon project members.
Responsibilities :
The person recruited is responsible for realizing, with Wimmics team, the task assigned to Wimmics in the project and will take relevant initiatives for carrying out the task.
Steering/Management :
The person recruited will be in charge of managing master internship in collaboration with Wimmics team.
Main activities
The work will start by a literature review to write a state-of-the-art on Knowledge Graph Index.
Then a graph index ontology will be specified and a graph index architecture will be designed and implemented. It will be available as an RDF Knowledge Graph in a SPARQL endpoint. Benchmarks on existing KG such as Wikidata and DBpedia will be realized.
Scientific publications will be written with the possibility to attend scientific conferences.
The candidate will have a leadership role for the Wimmics task and as such will participate to project meetings in France and will write deliverables of the project. Visit to partner teams will be realized.
Profil du candidat :
The candidate holds a PhD on the Semantic Web and Linked Open Data, with a focus on RDF graph indexing and SPARQL federated query processing.
Formation et compétences requises :
Languages : RDF, SPARQL, Java.
Relational skills : Hability to work in a team, to lead a research task in a research project with 3 partners.
Other valued appreciated : focus on the research program within the schedule and realize deliverable on time.
Adresse d’emploi :
Inria Sophia Antipolis Méditerranée (France)
Offre en lien avec l’Action/le Réseau : – — –/– — –
Laboratoire/Entreprise : IRISA, Rennes
Durée : 18 mois
Contact : simon.malinowski@irisa.fr
Date limite de publication : 2020-10-11
Contexte :
Research and innovation project SNAC (Digital Solutions for Driving Schools) cofinanced
by “Région Bretagne”
Sujet :
This offer is part of a collaborative project between IRISA and Smartmoov called “Digital Solutions
for Driving Schools”. This project aims at developing a solution based on a dashcam that records
driving lessons to detect mistakes made during a lesson thanks to computer vision algorithms on
image and videos. In particular, the distances between the car and its neighbourhood will have to be
analyzed (distance to pedestrians, other vehicles, riders…). Traffic lights, stop signs and other
events that could happen during a driving lesson will also have to be considered, in order to ease the
learning for the learner driver.
More details on the attached file
Profil du candidat :
PhD in computer science.
Strong background in computer vision
Formation et compétences requises :
Strong background in computer vision
Adresse d’emploi :
IRISA, Campus de BEAULIEU, Rennes , France
Document attaché : 202009081249_annonce-SNAC_anglais.pdf
Offre en lien avec l’Action/le Réseau : RoD/– — –
Laboratoire/Entreprise : IRIT
Durée : 12 mois
Contact : nathalie.hernandez@irit.fr
Date limite de publication : 2020-10-14
Contexte :
The ANR i-Flooding (e-Flooding) project focuses on risk management particularly in flash floods [Stolf 2019] and aims to limit the impact of floods and reduce the time needed to overcome the damage caused in the affected areas.
In this context, multiple data sources are considered to support and provide decision making. These data are of various types. They are static (land topologies, inhabited areas, population), computed from models or dynamically collected in real time (water level sensors, Vigicrue data or satellite images). These data can be analysed and interpreted from the knowledge of experts in the field (fire departments and participants in crisis meetings) as well as from knowledge from historical past floods.
Semantic web technologies have shown their interest, particularly in the context of the Internet of Things, to erase the heterogeneity of the data manipulated [Sezer 2018]. They allow the integration of knowledge representations that facilitate their automatic processing. Based on recent works such as those presented in [Sermet, 2019], one of the objectives of this post-doctoral work will be to propose an approach aimed at building and updating a knowledge graph from the data available in the two territories studied. This knowledge graph could be used to enrich the algorithm solving the routing problem of firefighters’ vehicles already proposed by the team [Dubois 2020]. Another objective will be to use this knowledge graph to help the firefighters analyze the crisis situation during their first reconnaissance on the ground. It will give the opportunity to confront the relevance of automatic reasoning based on technical sensors and that of the firefighter based on his observations, thus providing guidance to the actors of the crisis in their decisions. Finally, in order to promote rapid decision-making, the possibility of proposing an infrastructure to decentralize decisions such as the one presented in [Seydoux 2020] could be explored.
Sermet, Y., & Demir, I. Towards an information centric flood ontology for information management and communication. Earth Science Informatics, 12(4), 541-551, 2019.
Seydoux, N., Drira, K., Hernandez, N., & Monteil, T. EDR: A Generic Approach for the Distribution of Rule-Based Reasoning in a Cloud-Fog continuum.Semantic Web, Volume 11, Number 4, 2020
SEZER, Omer Berat, DOGDU, Erdogan, et OZBAYOGLU, Ahmet Murat. Context-aware computing, learning, and big data in Internet of Things: a survey. IEEE Internet of Things Journal, vol. 5, no 1, p. 1-27, 2018.
Dubois, F., Renaud-Goud, R., Stolf, P. Capacitated Vehicle Routing Problem under Deadlines. International Conference on Information and Communication Technologies for Disaster Management (ICT-DM 2019), Paris, 18/12/19-20/12/19, IEEE (Eds.), 2020.
Stolf, P., Pierson, JM., Sayah, A., Da Costa, G., Renaud-Goud P. e-Flooding: Crisis Management Through Two Temporal Loops. Hawai International Conference on Systems Science (HICSS 2019), Maui, Hawai, 08/01/19-11/01/19, University of Hawaï at Manoa, p. 2985-2994, janvier 2019.
Sujet :
The candidate will contribute to i-Nondations (e-Flooding) an ongoing research project on Flood Management. S/he will develop hypotheses, set-up experiments and write articles in collaboration with the other members involved in the project. One of his/her first tasks will be to draw up, in collaboration with the project members, a detailed work plan for her/his postdoctoral work at IRIT, based on his/her recent research experience.
Profil du candidat :
The successful candidate will be located in IRIT, Toulouse under the supervision of Patricia Stolf and Nathalie Hernandez at the frontier of the following three areas:
1- Knowledge Representation and Reasoning
2- Semantic Web of Things
3- Machine learning
The main requirements for the positions are:
– a Ph.D. in computer science with a focus on Artificial Intelligence AND or IN either semantic web technologies, reasoning or distributed decisions.
– a good publication record,
– strong programming skills
– using either French or English as working language, with a sufficient mastering of the latter for international collaboration.
Formation et compétences requises :
The main requirements for the positions are:
– a Ph.D. in computer science with a focus on Artificial Intelligence AND or IN either semantic web technologies, reasoning or distributed decisions.
– a good publication record,
– strong programming skills
– using either French or English as working language, with a sufficient mastering of the latter for international collaboration.
Adresse d’emploi :
IRIT – 118 Route de Narbonne, F-31062 TOULOUSE CEDEX 9
ADDITIONAL INFORMATION
Gross salary: between 3000 and 4000 € per month according to experience
Duration: 12 months
Start date: no later than December 1, 2020.
TO APPLY
Please send:
* a letter of motivation
* a curriculum vitae, including a list of publications
* the names and contact information of at least two referees
to both:
Patricia Stolf (patricia.stolf@irit.fr) Nathalie Hernandez (nathalie.hernandez@irit.fr)
Application deadline: October 30th, 2020
