Offre de stage : Instanciation et enrichissement par machine learning des métadonnées du « Lac de données Pablo Picasso »

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ERIC
Durée : 5-6 mois
Contact : jerome.darmont@univ-lyon2.fr
Date limite de publication : 2023-02-01

Contexte :
Le projet PICASSOLETTERS vise à analyser le réseau de relations qui a
contribué à la transnationalisation de Pablo Picasso. À l’aide des méthodes et des outils de la science des données, il s’agit de réaliser une étude inédite et systématique des correspondances du peintre pour construire le réseau d’acteurs et de relations du peintre. Le corpus épistolaire comporte plus de 20000 lettres jamais explorées de façon globale et détaillée à ce jour. Le but du projet PICASSOLETTERS est de contribuer à combler deux carences : la première concerne le déficit d’études sur la totalité du réseau du peintre, la seconde concerne l’absence de données ou de métadonnées accessibles en ligne et ouvertes à tous et toutes, recensant et décrivant ce corpus épistolaire. À travers le développement d’un lac de données permettant la saisie, l’interrogation et l’analyse de métadonnées décrivant la correspondance du peintre, le projet PICASSOLETTERS propose d’expérimenter un nouveau modèle pour l’exploration des corpus.

Sujet :
Le stage comportera plusieurs volets en étroite collaboration avec les
chercheur·es en littérature, en droit et du Musée national Picasso Paris :

• instancier et améliorer à la marge une base de métadonnées déjà créé

• étudier les méthodes de machine learning récentes et les appliquer sur les métadonnées afin de les enrichir

• développer un outil « intelligent » d’assistance à la création de métadonnées (collecte automatique d’informations, suggestions et recommandations d’enrichissement en utilisant le machine learning, etc.)

• mettre en œuvre le lac de données sur la base des tâches ci-dessus.

Profil du candidat :
Master ou équivalent

Formation et compétences requises :
Programmation/programmation web, gestion et bases de données, machine learning, technologies big data.

La connaissance des langages, standards et référentiels du Web sémantique et du Web de données serait un plus.

Adresse d’emploi :
Envoyer CV, lettre de motivation et ainsi que notes de l’année universitaire précédente à adresser à sabine.loudcher@univ-lyon2.fr et jerome.darmont@univ-lyon2.fr avec en objet « Candidature stage informatique PICASSOLETTERS » d’ici le 21 novembre 2022. Les candidat∙es retenu∙es après examen des dossiers seront convoqué∙es pour un entretien en visioconférence courant décembre.

Document attaché : 202210251629_stage-picassoletters-2023.pdf

Offre de stage en business intelligence : Analyse collaborative dans le décisionnel pour tou·tes

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : ERIC
Durée : 5-6 mois
Contact : jerome.darmont@univ-lyon2.fr
Date limite de publication : 2023-02-01

Contexte :
L’accès à l’informatique décisionnelle (business intelligence ou BI) a été
facilité par l’infonuagique (cloud computing). Toutefois, le décisionnel à la demande est soit limité, soit reste réservé aux spécialistes et hors d’atteinte des petites structures, indépendant·es et citoyen·nes, alors qu’il existe une forte demande sociétale d’analyse de données (self/open) simple et collaborative. L’objectif du projet BI4people, financé par l’Agence Nationale de la Recherche (ANR), est de rendre le décisionnel disponible en ligne à des utilisateur/trices disposant de peu de ressources financières et de connaissances techniques.

Sujet :
L’analyse collaborative dans le contexte de la BI a été étudiée selon différents points de vue, mais reste rare et se concentre principalement sur des aspects techniques. Il n’existe pas de solution globale à ce jour. Le stage comportera deux volets.

1. Définition d’une typologie des moyens collaboratifs pertinents pour l’analyse BI. Cette tâche est importante pour obtenir à la fois une vue d’ensemble globale des méthodes de collaboration pertinentes pouvant être utilisées dans la BI et une idée précise de la manière dont les utilisateur/trices pourraient bénéficier de la collaboration. L’analyse collaborative comprend le partage d’analyse, le mashup, l’annotation, la comparaison, la publication, etc.

2. Conception/spécifications/implémentation d’une architecture pour l’analyse collaborative qui s’inscrira dans le développement global du projet BI4people. L’architecture développée inclura la gamme de propositions déterminées dans la typologie ci-dessus. Un schéma sera dessiné pour
représenter le processus collaboratif envisagé. Des spécifications devront être proposées avant la mise en œuvre. L’ensemble du processus devra également être évalué sur un cas d’usage déjà constitué.

Profil du candidat :
Master ou équivalent

Formation et compétences requises :
Business Intelligence, programmation web/nodeJS, gestion de données,
rigueur.

Adresse d’emploi :
Envoyer CV, une lettre de motivation et vos notes de l’année universitaire précédente à cecile.favre@univ-lyon2.fr et sabine.loudcher@univ-lyon2.fr avec en objet « Candidature stage informatique BI4people » d’ici le 21 novembre 2022. Les candidat∙es retenu∙es après examen des dossiers seront convoqué∙es pour un entretien en visioconférence courant décembre.

Document attaché : 202210251625_stage-bi4people-wp3-2023.pdf

International Workshop on Artificial Intelligence and Augmented Engineering (AIAE’22)

Date : 2022-12-01
Lieu : Inria Saclay, Batiment Turing. Palaiseau

The Deep Learning revolution over the last decade has progressively invaded all fields of digital science and is gradually establishing itself as a complement to physical and knowledge-based models at all stages of modeling, simulation, optimization and control of complex systems.
Following the successful first edition in 2021, starting as an echo of the IA2 Program at IRT SystemX, the second workshop will feature keynote presentations (to be announced), and will allow researchers to present their most recent works. Contributed presentations are solicited, covering various topics in the field, including but not limited to the following:
– Handling and explaining the massive output data of heavy numerical simulations
– Accelerating numerical simulations with Deep / Machine Learning
– Improving the accuracy or the robustness of simulations with Machine Learning
– Learning to solve ODEs and PDEs
– Discovering mechanistic/behavioral models from data
– Incorporating physical constraints in Deep Learning
– Providing support in augmented decision making for complex systems
– New Human-Computer Interactions
– Symbolic and Numerical AI hybridization
– Natural language processing techniques based on IA
– Hybridization of deep learning with symbolic artificial intelligence
– Knowledge extraction and reasoning techniques from heterogeneous data
– Ontology and knowledge graph alignment
– Stream processing and reasoning (video and textual data)

Call for contributions
Link for abstract submission on the web page https://www.irt-systemx.fr/evenements/second-workshop-on-ai-augmented-engineering/
Accepted submissions will be presented either as contributed talks (20mn including questions) or as posters (during dedicated sessions, and during the breaks). Submissions selected for contributed talks can also be presented as posters, if the authors so wish.

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Deep Learning architectures for generating skeleton-based human motion

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : IRIMAS, MSD team
Durée : 6 months
Contact : maxime.devanne@uha.fr
Date limite de publication : 2022-12-31

Contexte :
Human motion analysis is crucial for studying people and understanding how they behave, communicate and interact with real world environments. Due to the complex nature of body movements as well as the high cost of motion capture systems, acquisition of human motion is not straightforward and thus constraints data production. Hopefully, recent approaches estimating human poses from videos offer new opportunities to analyze skeleton-based human motion. While skeleton-based human motion analysis has been extensively studied for behavior understanding like action recognition, some efforts are yet to be done for the task of human motion generation. Particularly, the automatic generation of motion sequences is beneficial for rapidly increasing the amount of data and improving Deep Learning-based analysis algorithms.

Since several years, new image generation paradigms have been possible thanks to the appearance of Generative Adversarial Networks (GAN) which have proved to be extremely efficient for many image generation tasks and human posture estimation. Although these networks are very efficient, their explainability and control still remain challenging tasks. Differently, other generative models have also emerged by considering the data distribution during training like Variational AutoEncoder (VAE) and Diffusion models.

First work addressing deep generative models for human motion have considered motion capture (mocap) data allowing to accurately extract body parts positions along the time. Hence, aforementioned generative architectures have been successively employed for generating mocap-based human motion sequences.

Differently, we consider noisy skeleton data estimated from videos as it is easily applicable in real-world scenarios for the general public

Sujet :
The goal of this internship is to provide guidelines in building deep generative models for skeleton-based human motion sequences. Inspiring from recent effective Deep Learning-based approaches, the aim is to generate full skeleton-based motion sequences without access to successive poses as prior information as it can be done in prediction tasks. It is therefore crucial to investigate how deep generative models can handle such noisy and possibly incomplete data in order to generate novel motion sequences as natural and variable as possible.

In particular, the candidate will work on the following tasks:
– Deep Learning architectures for skeleton-based human motion: investigation and assessment of the influence of different deep network architectures for capturing complex human motion features. Particularly, the goal of this task is to theoretically and empirically analyze the performance of existing architectures like CNN, RNN GCN and Transformers for modeling skeleton-based human motion.
– Deep generative models adapted to skeleton data: based on studies from the previous task, the goal is to build generative models upon the previously identified meaningful spaces where skeleton sequences are represented. Therefore, the candidate will investigate different generative models, like GAN, VAE and Diffusion models, in order to propose and develop a complete Deep Learning model for generating skeleton-based human motions.
– Evaluation of deep generative models: in order to validate the proposed model, experimental evaluation is crucial. In comparison to motion recognition where classification accuracy is a natural way to assess an approach, evaluating the task of motion generation is not as straightforward. Dedicated metrics evaluating both naturalness and diversity of generated sequences as well as the impact of new generated sequences in a classification task will be considered.

Profil du candidat :
The candidate must fit the following requirements:
– Registered in Master 2 or last year of Engineering School (or equivalent) in Computer Science
– Advanced skills in Python programming are mandatory
– Good skills in Machine Learning & Deep Learning using related libraries (scikit-learn, Tensorflow, Pytorch, etc.) are required
– Knowledge and/or a first experience in human motion analysis will be appreciated

Formation et compétences requises :
The candidate must fit the following requirements:
– Registered in Master 2 or last year of Engineering School (or equivalent) in Computer Science
– Advanced skills in Python programming are mandatory
– Good skills in Machine Learning & Deep Learning using related libraries (scikit-learn, Tensorflow, Pytorch, etc.) are required
– Knowledge and/or a first experience in human motion analysis will be appreciated

Adresse d’emploi :
The proposed internship will be carried out within the MSD (Modeling and Data Science) team from the IRIMAS Institute. It will be part of the ANR DELEGATION (https://maxime-devanne.com/delegation/)

IRIMAS, Université de Haute Alsace, Rue des Frères Lumière, 68093 Mulhouse

MCF 27/61 Université Savoie Mont-Blanc

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LISTIC et IUT Département Info, Annecy
Durée : CDI
Contact : guillaume.ginolhac@univ-smb.fr
Date limite de publication : 2022-12-31

Contexte :
E : programmation, DevOps/MLops, cloud, IA, traitement de l’Information.
R: Apprentissage automatique, Apprentissage Statistique, Traitement Images, télédétection

Sujet :
Profil long enseignement :
La personne recrutée pourra prendre en charge des enseignements en programmation, DevOps/MLops, cloud, IA, ou bien encore traitement de l’Information. Elle devra aussi s’investir dans la vie du département (réunions d’équipe, accompagnement et suivi des étudiants, encadrement de projets et suivis de stages, …). Elle pourra se voir confier une des tâche/mission administrative telle que la communication, une responsabilité d’études, la coordination des stages, … selon les besoins et ses compétences. Une expérience pédagogique basée sur des outils et concepts innovants (approche compétences, classe inversée, apprendre en enseignant, cours interactifs, ressources en lignes, …) sera appréciée.

Profil long recherche :
L’activité de recherche de la personne recrutée s’intégrera dans le thème AFuTé (Apprentissage, Fusion et Télédétection) du LISTIC. Ce thème développe plusieurs approches théoriques et méthodologiques :
– Apprentissage automatique – fouille de données, apprentissage profond,
– Fusion de données incertaines – probabilités, possibilités, croyances,
– Traitement du signal – ondelettes et apprentissage statistique,
– Télédétection – détection de changement, mesure de déplacement, inversion.

Les domaines d’application de ces travaux sont majoritairement liés à l’analyse de données temporelles ou spatiales, en particulier pour la surveillance de l’environnement ou les applications privilégiées du second thème du LISTIC (ReGaRD : Représentation, Gestion et tRaitement des Données pour l’humain).
La personne recrutée devra montrer sa capacité à développer des approches méthodologiques originales en apprentissage automatique. Elle pourra s’appuyer sur des compétences d’apprentissages statistiques, de représentation de l’information (transformée en ondelettes) et/ou d’apprentissage profond. Des capacités à se saisir des applications en télédétection et plus particulièrement sur des séries temporelles sont également souhaitées.

Profil du candidat :
Expérience en Machine Learning, Informatique, Traitement Signal/Image

Formation et compétences requises :
Thèse en Informatique ou IA ou traitement signal/image

Adresse d’emploi :
LISTIC, Annecy
IUT Département Informatique

Document attaché : 202210250738_ProfilMCF27-61_IUTA_LISTIC_2023.pdf

Stage M2 : Neural Network compression by optimising weight quantisation

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIRIS
Durée : 5-6 mois
Contact : stefan.duffner@liris.cnrs.fr
Date limite de publication : 2022-12-31

Contexte :
Deep Neural Networks (DNN) are powerful machine learning models for a large number of applications. However, they may have an enormous number of parameters and require large amounts of memory and computational resources and thus incur a high energy consumption, which makes their use for edge computing difficult.
Several approaches have been proposed to alleviate this problem, e.g. pruning, quantisation or architectural optimisations such as Neural Architecture Search. Although more and more efficient solutions exist also on the practical side (TensorFlow Lite, PyTorch quantization [1], NVIDIA Tensor RT etc.), the deployment of large DNN on embedded systems is still challenging.
Thus, on a more global level, a major concern in reducing the energy consumption related to AI in the cloud as well as on the edge is to make these tools more efficient and more accessible to a larger public.

[1] https://pytorch.org/blog/introduction-to-quantization-on-pytorch/
[2] Renato Cintra, Stefan Duffner, Christophe Garcia & André Leite (2018). « Low-complexity Approximate Convolutional Neural Networks ». IEEE Transactions on Neural Networks and Learning Systems

Sujet :
The goal of this project is to study the state of the art in neural network quantisation and experiment with existing frameworks such as the PyTorch quantisation module. We will particularly focus on post-training static quantisation. The first objective is to implement a simple pipeline (either using one of the existing libraries or from scratch) and make it extensible and adaptable to new algorithms. A set of standard models (MLP and CNN) and some common datasets will serve as a test bench.
A second objective consists in developing and experimenting with new quantisation schemes (fixed-point and floating-point of different precision and different layer-wise/channel-wise strategies).
Finally, a more complex quantisation algorithm that we published earlier [2] should be implemented and adapted to the given framework and pipeline. The developed algorithms should be tested and evaluated (on CPU and GPU hardware).
This internship is part of an industrial exploitation project of research work in collaboration with engineers from Pulsalys (https://www.pulsalys.fr).

Profil du candidat :
Master in Computer Science, AI, machine learning or similar, or final year of engineering school

Formation et compétences requises :
– Good knowledge in machine learning and neural networks
– Knowledge in optimisation is a plus
– Good skills in python programming and Pytorch, scipy, numpy etc.
– Scientific curiosity and creativity
– Motivated to work in a team of researchers and engineers

Adresse d’emploi :
LIRIS – INSA Lyon, 7 Avenue Jean Capelle, 69621 Villeurbanne, France

Stage M2 : Multi-modal explainable machine learning for exploring consciousness recovery of coma patients

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIRIS
Durée : 5-6 mois
Contact : stefan.duffner@liris.cnrs.fr
Date limite de publication : 2022-12-31

Contexte :
While consciousness is currently seen as the result of processes in the brain, ordinary human experience is in fact embedded in a web of causal relations that link the brain to the body and the environment (Bayne et al., 2020). Embodied cognition is a naturalistic theory in which consciousness is associated with a dynamic interaction between brain, body and environment (BBE) (Thompson et Varela, 2001). Indeed, from an evolutionary point of view, the nervous system appears to be dedicated to perceptual and motor processes that allow interaction with the environment (Thompson et Varela, 2001). According to this model, the world of which we are aware is enacted by our past interactions with the environment. In other words, consciousness would be better explained in terms of being in the world at a specific time and place. From a biological point of view, this would be associated with both information shared across cortical regions and non-reflexive behaviors (Kanai et al., 2019).
One way to better understand consciousness is to study its disorders and recovery. Indeed, when such
patients recover, they go through different clinical states that are characterized by the recovery of arousal and/or awareness and by the recovery of BBE interactions. Coma is a state of unconsciousness in which patients cannot be awakened. Those who recover could transit through a disorder of consciousness (DOC).
We hypothesize that the analysis of synchronized brain-behavior recordings to naturalistic stimulations
will better predict consciousness recovery, than the current analyses of one of the two modalities in
neutral contexts. Specifically, we hypothesize that DOC patients who will recover consciousness are those whose cerebral connectivity abilities are associated with non-reflexive behaviors to emotional and/or social stimuli (listening to preferred music, visit from relatives).
The first aim of the project is to apply, in healthy participants and DOC patients, new behavioral tools we have developed thanks to different computer vision methods (body and face analysis from video), and to characterize the behavioral responses associated with naturalistic conditions, thanks to machine-learning methods. The second aim is to characterize, in the same populations, the BBE interactions, i.e. how brain (from high-density EEG connectivity), body (from video and ECG -electrocardiogram) responses are coupled/decoupled according to the environment (emotional and social vs. neutral stimuli). This work will allow a better care of DOC patients and more generally a better understanding of the cerebral-behavioral bases of consciousness.

Sujet :
We will build upon existing preliminary works, where state-of-the-art computer vision algorithms (e.g. OpenPose, OpenFace) for human pose estimation and face and gaze analysis have been integrated and adapted to the specific context and acquisition conditions.
Subjects are successively put into 3 different situations:
• listening to sound,
• rest,
• interactions with the instructor,
and for each situation an emotional and a non-emotional version is performed (e.g. for sound: listening to favorite music). The first experiments based on recurrent (LSTM) neural networks have already given promising results for classifying different situations (in terms of interaction with the environment and overall behavioral phenomena). which we will further improve and make explicit, i.e. interpretable by medical specialists and neuroscientists. For example, at this point, we do not know yet, what parts of the body or face are likely to produce more relevant indicators of consciousness state and which type of behaviour, motion or gestures are informative. This will be one concrete expected result of the internship.
We have video, ECG and hd-EEG data from 20 healthy subjects and 60 DOC patients, which will allow the development of more precise and robust machine learning models.
Nevertheless, this represents relatively few data given the large variability between patients. Thus strong priors and regularisation are needed to avoid overfitting. Also specific pre- and post-processing methods will help to reduce the noise and decrease the dimensionality (e.g. by learning compact feature
embeddings, or by features selection algorithms). For example, we developed a specific filtering algorithm on the output of OpenPose that effectively removes undesired oscillations (due to pixel quantisations) and produces body pose and motion estimates that are much more realistic and that contain fewer artifacts.
Furthermore, different learning strategies and models will be developed to deal with the large amount of noise in general and the imbalance between the amount of relevant data compared to irrelevant data, for example by “rebalancing” the data using other methods or by specific learning mechanisms such as the Multiple Instance learning framework or some type of self-supervised learning.
The combination of these different modalities using new deep learning models as well as the adaptation of our existing models for unsupervised learning multi-variate time series (Berlemont et al. 2017) will allow us to further analyse complex correlations and co-occurences of characteristics and, by focusing on explainable methods and results (explainable AI), give insights into BBE interactions and further give rise to new neuroscientific hypotheses. The findings of such correlation patterns will be another major result that we expect from this project.
Thus, the nature of this research is clearly exploratory, and the expected results will concern both methodological contributions in AI and original methods leading to new knowledge in Neuroscience.

Profil du candidat :
Master in Computer Science, AI, Machine Learning or similar

Formation et compétences requises :
– Good knowledge of machine learning and neural networks and data analysis,
– Strong skills in python programming and PyTorch
– Motivation to work in a multi-disciplinary project
– Scientific curiosity

Adresse d’emploi :
LIRIS – INSA Lyon, 7 Avenue Jean Capelle, 69621 Villeurbanne, France

Post-doc in Computer Vision and semi-supervised representation learning at LIRIS Lyon

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIRIS, équipe Imagine (Lyon)
Durée : 2 ans
Contact : stefan.duffner@insa-lyon.fr
Date limite de publication : 2023-02-28

Contexte :
In recent years, the issue of resource efficiency has also become increasingly important in con-
struction engineering, as soil and rock account for more than 50% of mineral construction waste.
Tunnel projects play a special role in this regard, as large quantities are generated at specific times
and places. Due to the high degree of mechanisation and the associated advantages in terms of
construction performance and safety at work, almost the half of tunnels is built with Tunnel Boring Machines (TBM). For documentation and control of the construction process, these are equipped with various sensor systems that provide comprehensive data sets. But in this area, modern data-driven processes have not yet found a wide application.
This 24-month post-doc position is funded by the French-German ANR project REMATCH.
The overall objective of this project is to use the data sets from TBMs and conceive novel machine learning-based models to enhance the recycling of the large quantities of tunnel excavation material. In this regard, an innovative real-time measurement system for material characterisation is to be developed which gives decision support on the question if soil is “usable” or “not usable” for other purposes and thus has to be disposed of in a landfill. This system will base on several approaches using Computer Vision (CV) and state-of-the-art machine learning methods: firstly, on video data of excavated material on a conveyor belt, and secondly, on sensor data recorded simultaneously by the TBM.

Sujet :
The objectives of this post-doc position are to develop a computer vision system that analyses the videos captured from one or several cameras installed at the TBM and filming the excavated material on the conveyor belt. In order to decide on the possible reuse of the material, different geophysical properties need to be estimated from visual features extracted in real-time from the video stream(s) coming from RGB cameras. This is challenging due to the mediocre acquisition conditions under low lighting and fast motion inducing some motion blur. More specifically, after some preprocessing, a first step is to develop a machine learning solution based on appropriate CNN models that are trained for either classification and/or regression tasks in a supervised manner. Different models should be developed and evaluated in terms of robustness and precision.
To go further, novel innovative neural network-based architectures and weakly supervised learning schemes should be proposed to learn a latent representation that reflects the meaningful similarities of relevant soil characteristics. Then, potentially other physical properties should be incorporated more explicitely into this semantic latent representation (either via a specific CNN, an autoencoder-type model and semi-supervised or contrastive learning depending on the amount and type of available annotation and the possibility to exploit the TBM sensor data for labelling). The goal is to make the learnt features and models more explainable. After evalating these models, a final approach would be to incorporate TBM sensor data in a combined and multi-modal architecture.

Profil du candidat :
The candidate should have a PhD with a thesis topic related to computer vision and/or machine learning.
Good python programming skills are also required.

Formation et compétences requises :
See above.

Adresse d’emploi :
INSA Lyon – LIRIS, 7 avenue Jean Capelle, 69621 Villeurbanne

Atelier@EGC’23 : Mécanismes d’Attention et Apprentissage Automatique : avancées récentes et perspectives

Date : 2023-01-17
Lieu : EGC 2023
Lyon

Présentation de l’atelier
Cet atelier a pour objectif de réunir les chercheurs intéressés par les mécanismes d’attentions et leur apport dans le domaine de l’apprentissage automatique. Notre ambition est de permettre aux participants d’aborder tous les thèmes allant de la modélisation de l’attention aux applications en passant par les architectures basées sur de tels mécanismes. Les problématiques abordées lors de cet atelier peuvent concerner les processus de modélisation, extraction d’information, etc., ou les applications associées. L’atelier concerne aussi bien les chercheurs du monde académique que ceux du secteur industriel, et autant les notions conceptuelles que les applications. L’atelier est ouvert en termes de propositions. Nous souhaitons stimuler un échange et des discussions aussi bien du point de vue théorique qu’expérimental :

Quels succès ont été récemment rencontrés, et quels échecs ?
Quel est l’apport ?
Comment l’évaluer ?
Quid de l’explicabilité ?

Les présentations pourront concerner un travail abouti, des réflexions sur la modélisation ou un travail préliminaire, ainsi que la réalisation de démonstrations.

Format des soumissions :
Nous proposons deux types de soumissions :

Soumission classique : article 12 pages maximum
Soumission courte : article 2 pages maximum

Les articles sont soumis suivant le format d’EGC. Les actes de l’atelier seront de plus mis à disposition sur le Web.

Dates importantes

Date limite de soumission des articles : 27 novembre 2022.
Notification aux auteurs : 16 décembre.

Lien de soumission :
https://easychair.org/my/conference?conf=m3a2023

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.

Responsabilité des algorithmes : Enjeux Sociétaux et Environnementaux

Date : 2023-05-21 => 2023-05-26
Lieu : Aussois, Modane, Centre Paul Langevin,

École thématique “Responsabilité des algorithmes : Enjeux Sociétaux et Environnementaux”
Co-organisée par les GDR RO et IA (et en coopération avec les GDR Internet et Société, MADICS,
Sécurité Informatique)

du 21 au 26 mai 2023
à Aussois (en pension complète)

Date limite d’inscription : 14 avril
Pensez à reserver la date

Toutes les informations : http://gdrro.lip6.fr/?q=node/287

La thématique de la responsabilité sociétale des Algorithmes connait depuis quelques années une attention grandissante et transversale à plusieurs disciplines (Informatique, Mathématiques, Droit, Économie, Sciences Sociales).
Les objectifs de cette école sont :
• une sensibilisation aux principales écoles philosophiques et grands thèmes de l’éthique, compréhension des enjeux contemporains ;
• une initiation aux verrous interdisciplinaires en jeu dans l’aide à la décision ;
• une formation aux implications scientifiques et techniques afférentes en intelligence artificielle et recherche opérationnelle ;
• le développement d’un esprit critique à partir de différents cas d’application.

La semaine sera organisée en cours magistraux et en séances dédiées à des cas d’études.

Les cours confirmés : Ethical Decision Support: society and environment challenges, Odile Bellenguez (LS2N, FR)
Data pipeline quality, Vassilis Christophides (ENSEA, FR)
Rationality, Legitimacy, Validity, Yves Meinard (LAMSADE, FR)
Internet Governance, Francesca Musiani (CIS, FR)
Privacy, Data Protection, Security, Bengamin Nguyen (LIFO, FR)
Automatic Decisions and unmaned vehicles, David Rios Insua (ICMAT, ES)
Explainable Decisions and Recommendations, Marie-Christine Rousset (LIG, FR)

Les cas d’étude :
Financial Services and Risk Assessment, Léa Deleris, BNP-Parisbas, FR.
Auditing and Regulating Algorithms, Benoit Rottembourg, projet REGALIA (INRIA, FR)
Automatic Medical Support, Antoine Richard, François Talbot, CHU Lyon

Les cours à confirmer :
Accountability of Autonomous Artefacts
RGPD and legal provisions
Mechanism Design for Social Good

Les informations seront mises à jour sur : http://gdrro.lip6.fr/?q=node/287

Odile Bellenguez, Nadia Brauner, Christine Solnon, Alexis Tsoukias


Alexis Tsoukiàs
CNRS-LAMSADE, PSL, Université Paris Dauphine
75775 Paris Cedex 16, France
tel: +33144054401, http://www.lamsade.dauphine.fr/~tsoukias

Lien direct


Notre site web : www.madics.fr
Suivez-nous sur Tweeter : @GDR_MADICS
Pour vous désabonner de la liste, suivre ce lien.