InteX-ML : Conception d’une plateforme d’aide à l’explicabilité et l’interprétabilité d’algorithmes usuels de Machine Learning

When:
15/01/2023 – 16/01/2023 all-day
2023-01-15T01:00:00+01:00
2023-01-16T01:00:00+01:00

Offre en lien avec l’Action/le Réseau : PLATFORM/– — –

Laboratoire/Entreprise : Unité de Recherche LIST3N (Laboratoire Informatiqu
Durée : 6
Contact : babiga.birregah@utt.fr
Date limite de publication : 2023-01-15

Contexte :
En parallèle des progrès du Machine Learning, et particulièrement des modèles « black box » de deep learning, les questions d’interprétabilité et d’explicabilité des décisions algorithmiques occupent une place grandissante aussi bien dans la communauté scientifique qu’auprès du grand public ([1], [2], [3]). Ces deux problématiques constituent l’enjeux majeur pour les chercheurs et les industriels qui souhaitent « garantir » l’acceptabilité des solutions d’IA. De même la standardisation de l’interprétabilité et de l’explicabilité reste un problème ouvert ([4]).
Le projet InteX-ML a justement pour objectif de poser les bases d’une démarche générique pour l’explicabilité et l’interprétabilité des algorithmes de l’IA, en partant de cas usuels.

Sujet :
Objectifs du projet
Le projet InteX-ML a pour objectif de proposer un cadre méthodologique et technique, suffisamment générique, d’aide à l’explicabilité et l’interprétabilité d’un algorithme sur des cas d’usages proposés par l’utilisateur. Il s’agira de construire la première version d’un outil capable de « révéler » les étapes de l’exécution d’un algorithme d’IA à son utilisateur afin de permettre à ce dernier de mieux expliquer les choix et d’ interpréter les résultats associés. Au-delà de l’aide à l’explicabilité il s’agit aussi de fournir une approche « standardisée » d’évaluation des impacts du choix des valeurs d’entrée et des paramètres de l’algorithme.
Méthodologie
Le stage est structuré en trois grandes étapes :
1. Revue de littérature : Identifier le cadre théorique dans lequel s’inscrivent les différents travaux, afin de se positionner vis-à-vis d’un domaine où le vocabulaire n’est pas encore figé (e.g. explicabilité vs interprétabilité vs transparence…). Identifier les types d’explicabilités (model-agnostic vs local) et les méthodes courantes pour chaque type
3. Proposition d’un framework  : Définir les métriques et critères d’explicabilité et d’interprétabilité à retenir dans le cadre de ce projet ainsi que l’apport de ces derniers
4. Prototypage : Réalisation d’une plateforme (package logiciel par exemple) intégrant ces critères et métriques pour l’XAI d’algorithmes classiques du Machine Learning
Références
[1] Lipton, Z. C. The Mythos of Model Interpretability. ACM Queue (2018)
[2] Adedjouma, Morayo, et al. “Towards the engineering of trustworthy AI applications for critical systems-The Confiance. ai program.” (2022).
[3] Burkart, Nadia, and Marco F. Huber. “A survey on the explainability of supervised machine learning.” Journal of Artificial Intelligence Research 70 (2021): 245-317.
[4] Doshi-Velez, F., & Kim, B. (2017). Towards A Rigorous Science of Interpretable Machine Learning. stat, 1050, 2.

Profil du candidat :
En fin de cursus Ingénieur ou Master, vous avez de bonnes connaissances en Machine Learning et vous souhaiter travailler dans le domaine émergent et challengeant de l’explicabilité de l’Intelligence Artificielle.

Formation et compétences requises :
Vous êtes capable de mener à bien une mission d’analyse et de synthèse bibliographique et de présenter/défendre vos résultats (esprit critique et de synthèse).
Sur le plan technique: Très bonne maîtrise de Python et/ou Rstudio pour le data science.

Adresse d’emploi :
UTT – Université de Technologie de Troyes
12 rue Marie Curie – CS 42060 – 10004 TROYES CEDEX
Tél. : (+33) 03 25 71 58 69