Atelier EXMIA (2025)
Explicabilité des Modèles multi-modaux d’Intelligence Artificielle pour intensifier la découverte scientifique
Responsables
- Céline ROBARDET, LIRIS, INS2i
- Sebastien FIORUCCI, ICN, INC
Correspondant ComDIR : François GOASDOUÉ
Thématiques
Données concernées
Contexte scientifique
La conception de ces modèles est particulièrement exigeante, tant en termes de technologie que de méthodologie. Elle repose sur l’emploi d’architectures avancées, notamment les modèles de langage multimodal (LMM) et les réseaux de neurones sur graphes (GNN), qui offrent la capacité de traiter et d’intégrer des données hétérogènes et complexes, souvent reliées de manière non triviale. L’objectif est de capturer les interactions fines entre les différentes modalités de données pour obtenir une représentation riche et fidèle des phénomènes étudiés.
Cependant, un des principaux défis réside dans l’interprétation et l’explicabilité de ces modèles, car la complexité même des architectures utilisées peut rendre difficile la compréhension des mécanismes prédictifs ou inférentiels. Surmonter ce défi est essentiel, car cela permettrait non seulement d’augmenter la fiabilité des résultats obtenus, mais également de générer des hypothèses éclairées sur les processus sous-jacents. Ces hypothèses pourraient ensuite guider les recherches futures et ouvrir des perspectives novatrices, tant dans la compréhension des mécanismes biologiques que dans le développement d’applications concrètes, par exemple en médecine de précision ou en biotechnologie. En somme, cet atelier cherche à poser les bases d’une réflexion interdisciplinaire autour de la modélisation explicable des systèmes biologiques complexes, et à favoriser la création de collaborations durables autour de ces questions à l’interface entre sciences expérimentales et informatique.
Cet atelier est en lien avec l’Action DSChem, qui explore l’utilisation des bases de données chimiques pour la synthèse chimique, ainsi qu’avec l’Action HELP, focalisée sur l’explication de modèles d’intelligence artificielle (IA). L’Atelier se distingue de DSChem en élargissant son périmètre d’étude : au-delà des données chimiques, il intègre également d’autres types de données, telles que les séquences en acides nucléiques ou aminés et les réponses physiologiques d’un organisme, et met particulièrement l’accent sur le développement et l’utilisation de modèles multimodaux.
Par rapport à l’Action HELP, qui explore des approches d’explicabilité des modèles d’IA principalement agnostiques (c’est-à-dire indépendantes du modèle), l’Atelier EXMIA a pour ambition d’explorer un éventail plus large de techniques d’explicabilité, intégrant non seulement des méthodes agnostiques mais aussi des méthodes spécifiques aux modèles utilisés. Cette approche hybride vise à offrir des connaissances plus profondes et adaptées aux caractéristiques des modèles développés, permettant ainsi une meilleure interprétation des processus sous-jacents et des prédictions générées dans le cadre des phénomènes intracellulaires étudiés.
L’Atelier a aussi des liens avec le GT EXPLICON du GDR RADIA qui s’intéressent à l’explicabilité et aux garanties de qualité des modèles.