Droit & IA

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LAMSADE – Université Paris-Dauphine
Durée : 3 ans
Contact : elsa.negre@dauphine.fr
Date limite de publication : 2024-06-02

Contexte :

Sujet :
Appel à projet pour un contrat doctoral – Université Paris-Dauphine

Thèse pluridisciplinaire : Droit et Informatique

Localisation : Université Paris-Dauphine, France

Encadrantes / Contacts : Elsa Negre, MCF HdR, LAMSADE (elsa.negre@lamsade.dauphine.fr) et Olivia Tambou, MCF HdR, Cr2D (olivia.tambou@dauphine.psl.eu)

Mots-clés : IA, Systèmes décisionnels, Droit.

Problématique : Peut-on imaginer un système décisionnel comme support à l’accès au Droit ? Illustration autour du règlement européen sur l’IA

L’objet de ce projet de recherche doctorale serait d’imaginer un système décisionnel (aide à la décision) en s’appuyant sur l’analyse de la manière dont un texte juridique a été adopté puis interprété. Le point de départ serait donc d’accéder, de traiter et d’analyser/interpréter une grande masse de données juridiques comportant l’ensemble des travaux préparatoires à l’élaboration d’un texte juridique.

Un système décisionnel tout comme le droit repose sur différentes étapes pouvant aider les parties prenantes à trouver, entre autres, de l’information pertinente pour améliorer leur prise de décision. Il s’agit donc d’une aide automatisée à la prise de décision qui, elle, reste à la charge de la partie prenante.

Un tel projet part du paradigme qu’un système décisionnel, tout comme l’analyse juridique, suppose d’extraire d’une masse de données, des informations, et de créer de la connaissance. Il s’agira donc de voir dans quelle mesure un système décisionnel pourrait venir en support des analyses de droit.

Candidatures : Les candidat(e)s intéressé(e)s sont invité(e)s à envoyer :

– un projet de 2 pages maximum selon leur compréhension de la problématique,

– un CV,

– leurs relevés de notes (Master 1 et 2) avec classements (Master 2 également, éventuellement partiel), et

– plusieurs lettres de recommandation;

le plus tôt possible, avant le 02 juin 2024.

Profil du candidat :

Formation et compétences requises :

Adresse d’emploi :
Université Paris-Dauphine, Place du Maréchal de Lattre de Tassigny, 75016 Paris

The 17th European Workshop on Reinforcement Learning (EWRL 2024)

Date : 2024-10-28 => 2024-10-30
Lieu : Toulouse

We invite submissions to the 17th European Workshop on Reinforcement Learning (EWRL 2024). Submitted papers can present original contributions or give a summary (e.g., an extended abstract) of recent work of the authors. There will be no proceedings for EWRL 2024. As such, papers that have been submitted or published to other conferences or journals, or on-going work papers are also welcome. We welcome contributions on core RL topics and application papers.

Submissions are handled through Openreview. Submitted papers will be reviewed by the program committee in a double-blind procedure. Final decisions will be taken by the program chairs based on the reviews. There will be no author/reviewer discussion phase. Only accepted papers will be publicly released, while rejected or withdrawn manuscripts will be kept confidential.

Submitted papers should follow the NeurIPS template adapted for EWRL linked below. There is a limit of 9 pages, excluding references and appendix. Authors of accepted papers will be allowed an additional page to prepare the camera-ready version. All accepted papers will be presented as posters.

For any questions, please contact the organizers at ewrl…@gmail.com.

Submission deadline: June 7th, 11:59pm AOE
Notification of acceptance: July 31st (tentative)
Camera ready due: September 15th (tentative)
Page limit: 9 pages excluding references and appendix
Paper format: [EWRL 2024 author kit]
Paper submissions: [Openreview]

EWRL17 (2024)

The chairs team.

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Fusion d’entités dans des graphes de connaissances

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : laboratoire CEDRIC du CNAM
Durée : 3 ans
Contact : cedric.du_mouza@cnam.fr
Date limite de publication : 2024-08-31

Contexte :

Sujet :
L’objectif de cette thèse est de développer des méthodes innovantes pour améliorer l’étape cruciale du liage d’entités dans les graphes de connaissances et de proposer des stratégies efficaces pour détecter et fusionner les entités redondantes ou séparées à tort par le biais d’un post-traitement avancé. Ce travail se concentrera sur l’exploitation combinée d’algorithmes de graphes et de techniques d’apprentissage automatique pour relever ces défis.

Profil du candidat :
Bac+5 informatique

Formation et compétences requises :
Idéalement des connaissances à la fois en gestion et interrogation de larges graphes ainsi qu’en apprentissage.

Adresse d’emploi :
Laboratoire CEDRIC, CNAM Paris. Collaborations pendant la thèse avec le LIP6 (Sorbonne Université, Paris VI) et LAMOP (Université Panthéon-Sorbonne, Paris I).

Document attaché : 202405131317_sujetThese2024_CdM.pdf

Thèse – Caractérisation d’anomalie d’apparence de surfaces manufacturées et sa corrélation à la perception visuelle humaine par des méthodes XAI à partir de données multimodales RTI.

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : ImViA (https://imvia.u-bourgogne.fr), équipe CoReS
Durée : 36 mois
Contact : alamin.mansouri@u-bourgogne.fr
Date limite de publication : 2024-08-31

Contexte :
Financement : Projet ANR23 PRCE intitulé RTI 4.0 (CES 10 : Usine du futur)
Partenaires : Laboratoire l’IRDL (UBS), entreprise Altimet, Laboratoire LAMIH (UPHF), Stellantis Excelcar
Encadrement : Alamin Mansouri, David Fofi et Gaëtan Le Goïc
La présente thèse s’inscrit dans la continuité de plusieurs projets prestigieux dans l’équipe (Horizon Europe23 Research & Innovation Action intitulé Cheminova, H2020 MSCA ITN intitulé CHANGE, ANR17 JCJC intitulé NAPS, ANR18 PRC intitulé SUMUM, Défi Imag’In Fiat-Lux, etc.) qui ont permis des avancées significatives en termes de recherche ainsi qu’en en termes de systèmes innovants d’imagerie (matériels et logiciels).

Sujet :
L’imagerie RTI est aussi considérée comme une technique de photo-stéréométrie qui permet de faire le lien entre des attributs surfaciques étudiés et la fonction d’apparence mesurée mais aussi d’extraire des descripteurs locaux en lien avec la géométrie de la surface tels que ceux liés aux pentes et aux courbures. Ces derniers ont par ailleurs une forte influence sur les comportements/fonctionnalités mécaniques. Les développements de la technique du RTI offrent des perspectives prometteuses mais soulève de réels challenges :
• Comment numériser l’information d’apparence à l’échelle des états de surfaces de façon robuste ?
• Comment modéliser et caractériser l’information pour permettre l’extraction de descripteurs objectifs corrélés avec la perception visuelle ?
• Comment corréler la fonction d’apparence avec les propriétés de géométrie que l’on souhaite maîtriser ?
• Comment automatiser la maîtrise des états de surface à l’aide des outils liés à l’intelligence artificielle ?
Le travail de recherche dans le cadre de cette thèse portera principalement sur le 4ème point, c’est-à-dire, sur le couplage des méthodes par apprentissage automatique avec la technique du RTI afin d’automatiser ses différentes étapes (numérisation, modélisation et analyse) et par conséquent d’en augmenter la robustesse et l’efficacité.
En effet, les méthodes d’apprentissage automatique et notamment celles à base de réseaux de neurones ont révolutionné les domaines d’application de l’imagerie numérique, y compris dans le domaine de l’imagerie non conventionnelle et ont montré leur pertinence pour différentes tâches (segmentation, détection, localisation/suivi, etc.) dans différents domaines d’application (médecine, télédétection, contrôle qualité́, bio-mécanique, etc.), en substituant des modèles analytiques exhaustifs parfois couplés, par un modèle implicite construit à partir de données expérimentales qualifiées. Ces méthodes sont souvent privilégiées lorsque les données d’entrainement sont accessibles (maîtrise du processus d’acquisition) et même nécessaires lorsque les phénomènes sous-jacents aux processus sont complexes (forte non-linéarité et/ou absence de modèle analytique exhaustif). C’est très souvent le cas pour les applications de caractérisation fonctionnelles liées à la perception de l’apparence (processus cognitifs complexes et multiphysiques). Ainsi, l’objectif du travail de recherche de cette thèse sera de développer des méthodologies à base d’apprentissage automatique/profond adaptées aux données RTI (multimodales, multi-échelles et multi-temporelles) à des fins de caractérisation et de suivi d’état de surface (analyse 4D du changement de la surface selon la dimension du temps, de la température, de la pression ou tout autre variable linéaire ou non). Il sera également question de pouvoir interpréter le processus d’apprentissage profond dans le cadre de framework eXplainable Artificial Intelligence (XAI) et de le corréler aux évaluations et qualifications opérés par des experts. L’Institut américain des normes et de la technologie (NIST) définit quatre principes de l’intelligence artificielle explicable [15] :
• Le système doit fournir des preuves, un fondement ou un raisonnement pour chaque résultat.
• Le système doit fournir des explications que ses utilisateurs peuvent comprendre.
• Une explication doit refléter avec précision le processus utilisé par le système d’intelligence artificielle pour parvenir au résultat.
• Le système doit fonctionner uniquement dans les conditions pour lesquelles il a été conçu et ne pas fournir de résultats dont la fiabilité lui paraît insuffisante.
Enfin, un outil d’aide à la décision pourra aussi être développé, et saura s’adapter automatiquement selon les besoins des utilisateurs finaux, pour aider les contrôleurs qualité humain dans leurs taches d’analyses sensorielle (formations et assistance au contrôle qualité).

Les actions scientifiques structurant le travail de recherche :
Bases de données pour l’apprentissage
▷ les échantillons qui peuvent être utilisés pour l’apprentissage et pour les tests des méthodes à développer seront définis par les utilisateurs finaux en fonction de la finalité (détection d’anomalie, classification, qualification, etc.). Il y aura différents types d’échantillons d’entraînement, en fonction de la disponibilité́ des données des capteurs. Calibrage et fusion de données.
▷ Le calibrage est nécessaire en raison des limitations des conditions d’acquisition (non-uniformités spatiales et spectrales de l’éclairage, objets non-planaires, matériaux hétérogènes, variation de la sensibilité́ des capteurs, etc.). À cette fin, des modèles d’illumination généralises aidés parfois par des cibles de référence seront utilisés.
▷ Mise en cohérence géométrique (alignement et mosaïquage) et fusion en vue de l’étape d’apprentissage
Développement d’architecture et de méthodologie d’apprentissage profond
▷ Annotation par les experts des données images acquises des échantillons identifiés
▷ propagation des annotations aux structures multimodales obtenues à l’issue de la fusion. Les annotations vont être intégrées en tant que couche supplémentaire aux structures.
▷ Définition des stratégies de partitionnement des données d’apprentissage et de test en fonction des données et de degré́ de confiance.
▷Développement du RN et de stratégies d’apprentissage profond capable de caractériser et prédire les anomalies locales et globales à partir des données RTI-multimodales.

Test et interprétation
▷ les modules de classification développés seront évalués sur la base des échantillons annotés sélectionnés précédemment. Dans ce processus, les modules seront affinés sur la base des problèmes identifiés au cours des expériences sensorielles menées pour l’évaluation.
▷ corrélation aux modèles d’IA explicables (XAI) pour la compréhension et la modélisation du processus de perception visuelle des anomalies d’apparence par les experts.

Profil du candidat :
Pour candidater, il faut être titulaire (ou en cours de validation) d’un Master2 ou équivalent dans l’un des domaines suivants ou un domaine proche : vision par ordinateur, traitement du signal et de l’image, Machine learning et/ou intelligence artificielle appliqué en Image et vision.
Envoyer le dossier de candidature par email à alamin.mansouri@u-bourgogne.fr
Le dossier doit comporter :
– CV
– Lettre de motivation
– Relevé des notes de trois dernières années
– Exemples de travaux réalisés dans le cadre des études (publications, mémoires, projet de développement, etc.)

Date limite de candidature : les candidatures doivent parvenir au plus tard le 30 mai 2024

Formation et compétences requises :

Adresse d’emploi :
Laboratoire IMVIA – Dijon

Équipements et matériel à disposition : Le candidat ou la candidate retenu.e aura à sa disposition plusieurs systèmes d’acquisition RTI multimodale de pointe (RTI, couleur/multispectal, Variation de Focus) ainsi que plusieurs logiciels de d’acquisition, traitement et visualisation : deux systèmes d’acquisition opérationnels, l’un à base d’un dôme et le deuxième à base d’un bras robotisé.

Document attaché : 202405131220_Sujet_Thèse_ANR_RTI40.pdf

[CfP] SUMAC’24 @ACMMM’24: the 6th ACM International workshop on analySis, Understanding and proMotion of heritAge Contents

Date : 2024-10-28 => 2024-11-01
Lieu : Melbourne, Australia (hybrid mode)

Call for Papers
SUMAC 2024
6th ACM International workshop on analySis, Understanding and proMotion of heritAge Contents
Advances in machine learning, signal processing, multimodal techniques and human-machine interaction

28 Oct – 1 Nov, 2024
Melbourne, Australia (attendance mode TBA)
In conjunction with ACM Multimedia 2024

Workshop: https://sumac-workshops.github.io/2024/
Main Conference: https://2024.acmmm.org/

*** Aims and scope

The ambition of SUMAC is to bring together researchers and practitioners from different disciplines to share ideas and methods on current trends in the analysis, understanding and promotion of heritage contents. These challenges are reflected in the corresponding sub-fields of machine learning, signal processing, multi-modal techniques and human-machine interaction. We welcome research contributions for the following (but not limited to) topics:

– Monomodal analysis: text, structured referentials, image, video, 3D, music, sensor data
– Information retrieval for multimedia heritage
– Automated archaeology and heritage data processing
– Multi-modal deep learning and time series analysis for heritage data
– Heritage modeling, visualization, and virtualization
– Smart digitization and reconstruction of heritage data
– Open heritage data and bench-marking

The scope of targeted applications is extensive and includes:
– Analysis, archaeometry of artifacts
– Diagnosis and monitoring for restoration and preventive conservation
– Geosciences / Geomatics for cultural heritage
– Education
– Smart and sustainable tourism
– Urban planning
– Digital Twins

*** Important dates (AoE)

– Paper submission: July 19, 2024
– Author acceptance notification: August 5, 2024
– Camera-Ready: August 19, 2024
– Workshop date: TBA (28 Oct – 1 Nov, 2024)

*** Special Highlights

Best Paper Award. Following tradition, SUMAC 2024 will also be awarding a best paper award, accompanied with a certificate and a trophy.

*** Submission guidelines

Submission format. All submissions must be original work not under review at any other workshop, conference, or journal. The workshop will accept papers describing completed work (full paper) as well as work in progress (short paper). Two submission formats are accepted: a) 4 pages plus 1-page reference (short paper); or b) 8 pages plus up to 2-page reference (full paper). They must be encoded as PDF using the ACM Article Template of the main conference ACM Multimedia 2024 (https://2024.acmmm.org/regular-papers).

Peer Review and publication in ACM Digital Library. Paper submissions must conform with the “double-blind” review policy. All papers will be peer-reviewed by experts in the field, they will receive at least two reviews. Acceptance will be based on relevance to the workshop, scientific novelty, and technical quality. Depending on the number, maturity and topics of the accepted submissions, the work will be presented via oral or poster sessions. The workshop papers will be published in the ACM Digital Library.

*** Organizers

Valerie Gouet-Brunet (LaSTIG Lab / IGN – Gustave Eiffel University, France)
Ronak Kosti (Picsart AI Research Lab, Germany)
Li Weng (Zhejiang Financial College, China)

Looking forward to hearing from you at SUMAC!
The workshop organizers

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Offre d’une thèse : Modèle Génératif pour les Données Spatio-Temporelles

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Laboratoire ICube, Strasbourg
Durée : 36 mois
Contact : seo@unistra.fr
Date limite de publication : 2024-06-12

Contexte :
Spatiotemporal data provides a comprehensive view of the evolution of phenomena or organic structures over time and space, with a wide range of applications in various domains, such as environmental monitoring and climate analysis, transportation and traffic management, and longitudinal analysis of disease progression. The Transformer architecture, initially conceived and demonstrated as a powerful model for natural language processing tasks, has been adapted to become a formidable tool for spatiotemporal analysis, demonstrating superior parallelization and scaling capabilities to RNNs, in part due to its attention mechanism. Graph neural networks (GNNs), used in some studies to extract spatial information, further enhance spatiotemporal analyses by exploiting their adaptability to irregularly distributed data and their flexibility in integrating various sources of information.

Sujet :
In this study, we aim to develop a novel model specifically tailored for generating spatiotemporal data. Our strategy involves leveraging diffusion probabilistic models for denoising (DDPM) while exploring other innovative theories with the aim of comprehensively incorporating spatiotemporal conditions, possibly from different modalities. DDPM has demonstrated remarkable generative capability in the text-image generation task, and possesses inherent advantages for dealing with the many-to-many distribution fitting problem, making it a superior candidate for spatiotemporal data generation. However, diffusion models typically rely on U-Net, which is not explicitly crafted for sequential data but excels in feature extraction. Although some researchers have attempted to incorporate Transformers into diffusion models, there remains a notable absence of tailor-made adaptations to meet the demands of spatiotemporal data.

Recognizing the limitations of existing model architectures, we intend to transition to a new model capable of exploiting spatial information while exploring temporal relationships in depth. At the same time, we aim to establish a reliable latent space for the representation of spatiotemporal data, with potential benefits for several downstream tasks such as anomaly detection or longitudinal analysis. Our specific aims are as follows:
1. Generative model for the generation of spatiotemporal data with spatiotemporal conditioning. The advantages of probabilistic diffusion models for denoising (DDPM) will be deployed, with advanced spatiotemporal encoding capabilities. The underlying spatiotemporal constraints will be modeled, such as time-varying tasks or stimuli given to the subject at the time of biometric data acquisition.
2. Extension to multimodality. Taking inspiration from the multi-model diffusion model, we will design a joint denoising process so as to efficiently generate multimodal data consistent across modalities. Going beyond existing works that deal with at most two modalities, we will tackle the challenging cases involving more than three modalities, where relying on paired modeling can be suboptimal.

The project will encompass several applications, including but not limited to, boat surveillance and research on neurodegenerative diseases.

Profil du candidat :
− Master student in Computer Science, Electronic & Electrical Engineering, or in Applied Mathematics

Formation et compétences requises :
− Solid programming skills: Python/Pytorch/C++
− Proficiency in Deep Learning techniques
− Good communication skills

Adresse d’emploi :
Université de Strasbourg
4 Rue Blaise Pascal
67081 Strasbourg

Document attaché : 202405120934_Generative model for spatio-temporal data.pdf

PostDoc : Building and analyzing enriched 3D models of cultural heritage assets using deeplearning for structural and chemical damage detection and characterization.

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : Image et Vision Artificielle (ImViA)
Durée : 18 mois (might be ex
Contact : alamin.mansouri@u-bourgogne.fr
Date limite de publication : 2024-07-15

Contexte :
This recruitment falls in the framework of the Horizon Europe Research & Innovation Action Entitled CHEMINOVA

https://cordis.europa.eu/project/id/101132442

Partners: UB (France), UVEG (Spain), ICCROM (Italy), UNIPA (Italy, NCA-SSK (Ukraine), CNR-ISAC (Italy), LUH (Germany), 4D-IT (Austria), SKB (Austria), DIADRASIS (Greece), UTC (Romania), ARTCO (Germany).

Connext and scope of Cheminova:

In the 1960s, a chemical experimentation game called CHEMINOVA gained widespread popularity and inspired many individuals to pursue careers in science. The game came with all the essential tools to create a home laboratory, including test tubes, a burner for heating mixtures, clamps to hold tubes, and chemical products. Named after and inspired by this game, the Horizon Europe Research&Innovation Action project entitled ChemiNova focuses on simplifying chemistry and imaging analysis and fostering collaborative conservation research while prioritizing humans as the central focus for technological innovations.

Therefore, ChemiNova project aims to develop an intelligent computational system that goes beyond current technologies to improve the conservation, analysis and monitoring of European Cultural Heritage assets. Using a myriad of data, we will tackle structural and chemical damages, focusing on two specific human-induced threats: climate change and civil conflicts. Inspired by the simplicity of a children’s game, our value relies on the conviction that we will facilitate conservators’ work to the extent that using a single framework they can document, digitise, classify, and share information for CH conservation. Cheminova will organize collaborative acquisition sessions at the pilots: As part of the project in-person technical meetings we have planned collaborative acquisition sessions involving gathering different types of data by ChemiNova partners. This will include hyperspectral images (UVEG), thermal images (CNR-ISAC), RGB images with a camera mounted on UAVs (4D-IT), Appearance attributes from Reflectance Transformation Imaging-RTI (UB) and RGB images with off-the-shelf cameras (UNIPA), among others. Therefore, the technical meetings will mostly take place in the cities related to pilots (Valencia, Palermo, Vienna and Kyiv -if possible).
Furthermore, our impact lies in the fact that we will not build an ad hoc device, but our technology is adapted so that anyone can access it from anywhere. We will involve local communities (citizens) in conservation practices, from providing data (citizen science) to raising awareness on the effects of climate change, natural and human hazards affecting CH.

Sujet :
Involvement of the candidate in the project

The involvement of the successful candidate will be on the entire project with but significant contributions are expected on WP3 and WP4. These contributions will revolve around a) Developing new methods and tools considering multi-dimensional representations of the object, supporting not only spatial information, but also spectral, RTI, semantic and temporal. These 3D models are called enriched 3D models (e3D) as a result of WP3–ChemiModel); b) Developing advanced analysis based on deep learning to automatically detect types of damages on CH assets due to climate change and other human-induced threats (WP4–ChemiAI). c) Processing RTI data acquired by a drone-based system designed for inaccessible zones d) Participating to the management of the project title
a) Building ChemiModel: Design radiometric calibration protocols and methods and apply them to the data; Co-register data from multiple platform positions in a common, metric reference frame (orientation); Reconstruct the object shape as a watertight surface mesh with radiometric information; Refine and enrich the model locally by maps computed from RTI data and simulate visual appearance of objects through interactive relighting; Integrate other models (different epochs, different sensors) and detect changes by differencing; To compound and upload to the ChemiNova database the e3D models with shape and texture(s).
b) Advanced Analysis and Deep Learning (ChemiAI): develop classification techniques for differentiating types of damage of artefacts, buildings and monuments based on the e3D models derived in WP 3 and using methods for deep learning; To develop a methodology for analysing hyperspectral and RTI data in order to obtain information about damage; Integrate the classification methods for e3D models with RGB textures and additional sensor data for an improved prediction of damage; Derive information about damage for the datasets acquired in the pilots so that it can be integrated into the ChemiNova database.
c) Drone-based RTI system building: The generated 3D point cloud may suffer locally from imperfect or low confidence reconstruction (large objects or for zones out of the reach). In such areas, the RTI technique will be used to improve the generated e3D models. A drone-based RTI system will be built in collaboration with 4D-IT. The candidate will be involved in data processing further to acquisition by drone (alignment, stitching, radiometric calibration. Relighting).
d) Management of the project: Strong involvement in the project is expected: attending consortium meetings, preparing and participating to acquisition campaigns, preparing deliverable and monitoring the progress, representing the project and UB in events and conferences.

Profil du candidat :
The candidate must hold a PhD in Computer/computer Science with competences on Deeplearning.
Knowledge on RTI imaging or more globally Appearance imaging are appreciated

Formation et compétences requises :

Adresse d’emploi :
Laboratoire ImViA – Dijon

Document attaché : 202405101448_PostDoc Proposal_FV.pdf

Offre de Contrat Doctoral – Informatique (LIG) / SHS (ESO) – Collecte d’histoires de vie – 80 PRIME

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : LIG
Durée : 36 MOIS
Contact : marlene.villanova-oliver@univ-grenoble-alpes.fr
Date limite de publication : 2024-07-15

Contexte :
Une offre de contrat doctoral en Informatique financée dans le cadre du programme 80 PRIME CNRS est proposée par le Laboratoire d’Informatique de Grenoble (LIG, Equipe Steamer) et le laboratoire Espaces et Sociétés (ESO-Rennes), en collaboration avec l’Ined.

La direction de la thèse sera assurée par Marlène Villanova (Pr. en Informatique, Université Grenoble Alpes/LIG) et Pascal Sebille (MCF en Sociologie/Démographie, Université Rennes 2/ESO). Le doctorant ou la doctorante sera amené à collaborer avec les membres du consortium pluridisciplinaire (LIG, ESO, Ined) à l’origine du projet dans lequel s’inscrit cette thèse.

Poste à pourvoir au 1er octobre 2024
Date limite de dépôt de candidature : 16 juillet 2024 (A noter : étude des dossiers au fil de l’eau, poste susceptible d’être pourvu avant cette date)

Sujet :
En SHS, le recours à des enquêtes de type biographique recueillant les histoires de vie s’est généralisé dans le but d’expliquer les dynamiques sociales et territoriales. La collecte des données biographiques au moyen d’une fiche papier au format spécifique Ageven (pour Age-Évènement) a fait ses preuves, mais le processus d’obtention de ces données rétrospectives reste laborieux et coûteux. À ce jour, il manque un outil numérique capable de rivaliser avec ce mode de collecte papier.

La thèse a pour objectif d’apporter une contribution au champ des enquêtes biographiques par des solutions innovantes et opérationnelles de recueil de données structurées comme des trajectoires sémantiques. Ces dernières permettent de gérer conjointement plusieurs dimensions de la vie d’un individu (dimensions familiale, résidentielle, professionnelle, etc.), chacune composée d’épisodes et d’événements décrits par un ensemble d’attributs thématiques, spatiaux et temporels. Un des défis à relever sera de définir et d’implémenter des composants (de saisie et de rendu visuel) supportant la complexité de l’objet “histoire de vie” et facilitant chez l’enquêté le processus de remémoration de son passé.

Profil du candidat :
Master en Informatique avec fort intérêt pour les SHS

Formation et compétences requises :
Compétences Techniques
– Analyse des besoins, modélisation, conception
– Structuration /exploitation des données (Bases de Données, Knowledge Graphs, web sémantique)
– Langages de programmation et framework orientés web (incluant Python, HTML, CSS, Javascript, bibliothèques graphiques, etc.)
– Développement client/serveur et sur dispositifs mobiles
– Gestion de projet, développement/intégration continu(e), tests
– Ergonomie IHM, UX Design
– Culture en Sciences de l’Information Geographique (webmapping)

Autres Compétences attendues :
– Expérience avérée dans la conception et le développement d’application dans un contexte pluridisciplinaire
– Autonomie et force de proposition
– Capacité à travailler en équipe
– Qualités rédactionnelles en Français

Adresse d’emploi :
portail emploi du CNRS : https://emploi.cnrs.fr/Offres/Doctorant/UMR5217-MARVIL-006/Default.aspx

Adum : https://adum.fr/as/ed/voirproposition.pl?site=adumR&matricule_prop=57483

Post-Doc : Optimisation et Réduction des défauts par l’IA dans l’usine 5.0

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : L@B ISEN
Durée : 24
Contact : sylvain.lefebvre@isen-ouest.yncrea.fr
Date limite de publication : 2024-06-14

Contexte :
Ce contrat se déroule dans le cadre d’une chaire industrielle créée en 2021 entre l’entreprise ACOME, leader européen dans la création des câbles, et le L@bIsen le laboratoire de l’Ecole Supérieure de l’Electronique et du Numérique. Ce travail va être effectué par un/e post-doctorant/e, sur une période de de 24 mois, encadré par un enseignant-chercheur de l’ISEN Ouest.

Sujet :
Dans le secteur industriel, les entreprises sont soumises à des demandes toujours plus fréquentes de nouvelles versions de leurs produits pour répondre aux besoins en perpétuel évolution du marché. L’industrie de la fabrication des câbles est particulièrement impactée par cette tendance de fond qui pousse les laboratoires de conception des nouveaux produits à fournir toujours plus de recettes des nouvelles fabrications en un temps réduit, en prenant en compte les normes imposées par les clients.
La problématique de la réduction des déchets de production est apparue comme importante à traiter à la fois pour les gains potentiels qui peuvent être envisagés, ainsi que pour sa proximité avec les problématiques de production. L’activité de production de l’entreprise concerne principalement la production de câbles pour différents secteurs industriels et notamment pour le secteur automobile. Il s’agit donc de fabrication de produits en long. Les procédés de fabrication pour ce genre de produits impliquent des flots continus de matières circulant dans et entre les machines. Des changements d’ordre de fabrication, des défauts de qualité des matières premières ou des conditions de production particulières produisent par exemple des produits ne pouvant être commercialisés qui sont alors des sources de coût pour l’entreprise.
Un deuxième aspect négatif, de plus en plus considéré dans le monde industriel, concerne l’impact environnemental en lien avec le traitement de ces produits finis ou semi-finis fabriqués mais immédiatement mis au rebus.
C’est pourquoi, les indicateurs de suivi en lien avec la gestion des déchets sont fréquemment contrôlés par les responsables de production et les ingénieurs qualité. La difficulté de cette analyse réside dans le fait que la fabrication des câbles combine plusieurs activités complexes de production effectuées par différentes machines dans plusieurs ateliers. Il y a donc un besoin de fournir un outil d’analyse intelligent de plusieurs sources de données sur l’ensemble du processus de production, qui puisse recommander automatiquement aux ingénieurs qualité les paramètres permettant de réduire les déchets au minimum.

Profil du candidat :
Le candidat devra montrer une solide expertise dans un ou plusieurs des domaines suivants :
– Analyser des données et modéliser des problèmes d’optimisation
– Développer des applications et visualiser / extraire des données en Python
– Avoir des notions en : Théories des Graphes, Réseaux de Neurones, Apprentissage Profond (Deep Learning)
– Concevoir des jumeaux numériques en lien avec un partenaire industriel
– Maitriser le Français et l’Anglais
– Mener des recherches de haut niveau et à publier dans des conférences et des revues internationales à comité de lecture.
Une expérience industrielle est un plus.

Formation et compétences requises :
Titulaire d’un doctorat, et d’un formation de préférence en lien avec les domaines suivants:
– Architecture de gestion des données, DevOps
– Analyse de données
– Intelligence Artificielle / Recherche Opérationnelle
– Simulation

Adresse d’emploi :
Antony (92)

Document attaché : 202405071517_Sujet_postdoc_ODIP_2024.pdf

Similarity measurements between spectral textures

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ImViA – Dijon
Durée : 36 mois
Contact : franck.marzani@u-bourgogne.fr
Date limite de publication : 2024-05-31

Contexte :
Image and Vision Computing (ImViA) is a university of Burgundy laboratory, France (https://imvia.u-bourgogne.fr/): its thematic is Imaging and Artificial Vision. The lab is structured into two teams with complementary activities. The thesis will be carried out within the CoReS (COmputer vision for REal time Systems) team in Dijon. This group is composed of researchers working in the field of vision, embedded electronics, signal and image processing for the joint development of imaging systems and associated methods. Particular emphasis is put on the design of unconventional and multimodal vision systems, on the consideration of strong constraints on processing times and on the use of machine learning techniques in specific contexts (e.g. embedded targets, little data or explainable AI).
The application domains are numerous, such as heritage, health or quality control, and include quality control of manufactured products, biomedical engineering and human monitoring.

Sujet :
This PhD thesis focuses on spectral imaging (color, multi- and hyper-spectral). We are interested in the study of the texture of this type of image and its link with human perception [Cha19]. At present, texture processing and analysis is mainly carried out in grayscale. We want to work jointly on texture combined to spectral dimension.
Texture feature extraction is divided into four main categories. The transform features are based on the Fourier transform and its derivatives [Cog85]. The structural features rely on textons (the pattern that defines the texture). It is the family of the Local Binary Pattern ([Oja94]). The model-based features assume a model for the texture such as fractals [Pen84] or Markov random fields [Cro83]. The last category is based on statistical features with the analysis of probabilistic characteristics linked to texture [Har73].
The aim of this thesis is to propose a distance measure between multivalued textures. To achieve this, spectral texture features will have to be developed that combine both image’s spectral and spatial dimensions [Chu21]. We will consider the spectral texture as a joint probability between the spectral and the spatial distributions of the spectra responses. To measure the distance between features, we need to consider the nature of the data. Depending on which category of features you are in, one should not use any distance measure. The Minkowski distance should be used for orthogonal data, while finite state distance (Hamming distance) is adapted to finite state data (usually binary). When dealing with statistical features, the use of probabilistic measured is needed [Ric16]. Nowadays, metric learning is used a lot [Kay19]. Several measures of distance between texture features will be proposed. A validation process will have to be defined. These measures will need to be validated according to the application.
In particular, this work will be applied to endoscopy images in order to offer physicians a richer perception of mucosal structure [Kre19]. The research team has an extensive background in medical endoscopy image analysis. Thanks to its collaborations, it has access to spectral videos, particularly in relation to inflammatory diseases of the digestive system. The inflammatory process induces various tissue modifications that can be investigated by several existing techniques during digestive endoscopy. Dye-free digital chromoendoscopy, or virtual chromoendoscopy, is based on the illumination of the mucosa with a specific light to recognize changes in mucosal structure. The very recent emergence on the market of endoscopic systems for highlighting textural features demonstrates the interest of such features in addition to spectral and shape one [Sat21], [Sug22]. In the context of the PhD, we will work on the interpretability of multivalued textures to characterize inflammatory lesions in relation to the physician’s perception.
As well as texture features, a key element we would like to develop is the uncertainty associated to feature extraction. Indeed, the uncertainties due to acquisition are not the focus of this work. Yet, those coming from the computation side can be extracted and must be calculated to add value to the result presented to the physician. To estimate them, the model error will be measured such as a distance between the approached probability and the true one.

Profil du candidat :
Master in imaging, computer vision or mathematics

Formation et compétences requises :
– Image
– Python, C++, MATLAB

– Enthusiasm for research
– Fluency in English (written, spoken)
– Teamwork and autonomy

Adresse d’emploi :
Laboratoire ImViA
Université de Bourgogne
Dijon

Document attaché : 202405061450_Sujet_These Marzani Chatoux 2024.pdf