Offre Post-doc : Intelligence Artificielle eXplicable (XAI) pour des séries temporelles hétérogènes

When:
31/10/2020 – 01/11/2020 all-day
2020-10-31T01:00:00+01:00
2020-11-01T01:00:00+01:00

Offre en lien avec l’Action/le Réseau : – — –/Doctorants

Laboratoire/Entreprise : IMT Atlantique, Brest (Laboratoire​ Lab-STICC​ ​UM
Durée : entre 15 et 18 mois
Contact : lina.fahed@imt-atlantique.fr
Date limite de publication : 2020-10-31

Contexte :
La fouille de séries temporelles dans le but de prédiction et d’extraction des connaissances est un domaine très actif. Parmi les modèles existants, nous pouvons citer ceux à base de réseaux de neurones, d’approches ensemblistes, etc. Ces modèles sont très performants, mais ils restent des boîtes noires, à savoir le processus de modélisation est opaque et plusieurs questions se posent sur son explicabilité, la compréhension du résultat, la fiabilité et l’acceptabilité du modèle par les experts du domaine.
Cependant, depuis plusieurs années, de nouvelles exigences sociétales apparaissent, il s’agit des demandes pressantes pour rendre le processus de modélisation explicable et transparent afin de fournir des explications claires aux experts du domaine d’application [1, 2]. Récemment, de nouvelles méthodes pour développer l’explicabilité, indépendantes des modèles d’apprentissage, ont été proposées [2]. On peut les classer en deux familles: (i) les méthodes qui ajoutent une étape, indépendamment de l’étape de modélisation et d’apprentissage, pour expliquer le modèle et (ii) les méthodes qui améliorent l’explicabilité du processus interne de modélisation en agissant sur les étapes de l’apprentissage. Cependant, l’explication fournie par ces méthodes reste marginale dans le cadre de séries temporelles hétérogènes, surtout face à l’intégration des connaissances experts à travers des données sémantiques [3, 4, 5].

Sujet :
Il s’agit de proposer une méthode d’intelligence artificielle explicable sur des séries temporelles hétérogènes. Ces travaux seront menés dans le cadre du projet LEARN-IA dont l’objectif principal est l’amélioration de la performance énergétique des infrastructures dans des environnements industriels. Deux types de séries temporelles seront mis à disposition : (i) des séries temporelles sémantiques générées à partir des rapports quotidiens des techniciens et (ii) des séries temporelles numériques générées à partir des capteurs électroniques celles de performance énergétique des chaudières.
La mission du futur post-doc sera d’exploiter ces séries temporelles hétérogènes afin de proposer une modélisation explicable, à savoir une méthode d’intelligence artificielle qui permet d’expliquer le résultat du modèle d’apprentissage (de prédiction ou d’extraction des connaissances) utilisé et qui agit indépendamment ou conjointement avec le modèle d’apprentissage.
L’enjeu principal est de pouvoir expliquer les raisons de l’écart de performance pour un modèle d’apprentissage en fonction des données. Nous supposons que les raisons d’un tel écart peuvent être liées à deux facteurs : (i) aux données et l’objectif sera donc de trouver les données qui impactent la performance, (ii) et au modèle d’apprentissage lui-même: le but sera donc de repérer les étapes/paramétrages dans le modèle d’apprentissage qui est sensible à la nature des données.
Etant donné que l’explication fournie par une telle méthode explicable sera destinée aux experts du domaine, une attention particulière doit être apportée à la formulation de l’explication. Une explication doit avoir les caractéristiques suivantes : clarté, précision, satisfaction, validité du contenu, impartialité et non-discrimination (non biaisé). Une telle méthode explicable fera partie d’un cycle complet : si les explications sont satisfaisantes, elles permettent à l’expert d’accepter la décision proposée et les guide afin de faire les bonne actions. Cela à son tour permet de développer un certain degré de confiance au système et apporte une interaction optimale avec ce système.

PARTENAIRES ET ACTEURS :
Le projet LEARN-IA réunit trois acteurs : deux entreprises rennaises et une grande école d’ingénieurs (IMT Atlantique), il est financé par le Fonds européen de développement régional (FEDER) et la Région Bretagne-Atlantique. Il a été labellisé par le Pôle Images & Réseaux et le Pôle Mer.

RÉFÉRENCES :
[1] Goodman, Bryce, and Seth Flaxman. “European Union regulations on algorithmic decision-making and a “right to explanation”.” ​AI magazine​ 38.3 (2017): 50-57, aaai.org.
[2] Guidotti, Riccardo, et al. “A survey of methods for explaining black box models.” ​ACM computing surveys (CSUR)​ 51.5 (2018): 1-42.
[3] Giurgiu, Ioana, and Anika Schumann. “Explainable failure predictions with rnn classifiers based on time series data.” ​arXiv preprint arXiv:1901.08554​ (2019).
[4] Karlsson, Isak, et al. “Explainable time series tweaking via irreversible and reversible temporal transformations.” ​2018 IEEE International Conference on Data Mining (ICDM)​. IEEE, 2018.
[5] Bascol, Kevin, et al. “Unsupervised interpretable pattern discovery in time series using autoencoders.”
Joint IAPR International Workshops on Statistical Techniques in Pattern Recognition (SPR) and Structural and Syntactic Pattern Recognition (SSPR).​ Springer, Cham, 2016.

Profil du candidat :
thèse de doctorat en fouille de données, machine learning, et/ou modélisation de séries temporelles.

Formation et compétences requises :
python, Scikit-Learn, analyse statistiques, neural networks, …

Adresse d’emploi :
Laboratoire​ Lab-STICC​ ​UMR CNRS 6285​, équipe ​DECIDE​
IMT Atlantique Bretagne-Pays de la Loire Campus de Brest Technopôle Brest-Iroise CS 83818 29238 Brest cedex 03

Document attaché : 202009291515_postdoc-XAI-séries-temporelles-IMTA.pdf