Mardi 27 mai 2025 |
9h00 |
Accueil et café |
9h30 |
Session d’ouverture (Amphithéâtre E – Jacques Maury) |
10h00 |
Keynote Olivier Teste – IRIT, U. Toulouse 2 (Amphithéâtre E – Jacques Maury)
Expériences de recherches pluri & interdisciplinaires en IA dirigée par les données (résumé)
Résumé : L’apprentissage machine (Machine Learning, ML) et les méthodes d’explication associées (eXplainable Artificial Intelligence, XAI) constituent un ensemble de techniques à la base du développement d’intelligences artificielles (Artificial Intelligence, AI). Ces approches permettent de construire à partir des masses de données un modèle numérique explicable capable de réaliser diverses tâches dans de nombreux champs disciplinaires.
Après avoir défini les termes de pluri, inter et transdisciplinarité, nous présenterons deux retours d’expériences de travaux (1) pluridisciplinaires dans le contexte « IA4Industry » et (2) interdisciplinaires dans le contexte « IA4Biology ».
Le premier retour d’expérience « IA4Industry » traitera de recherches pluridisciplinaires (entre l’IRIT et la société Airbus) en détection d’anomalies dans les séries temporelles multivariées (données issues de capteurs). L’approche présentée reposera sur l’analyse fonctionnelle de données (FDA) pour représenter les séries temporelles multivariées et des mécanismes d’agrégation des variables capables de capter les anomalies considérées comme des déformations géométriques. L’application présentée concernera l’aéronautique et l’identification précoce de turbulences atmosphériques.
Le deuxième retour d’expérience traitera de recherches interdisciplinaires (entre les laboratoires IRIT et RESTORE) sur le vieillissement humain dans les données mixtes tabulaires (données cliniques et biologiques). L’approche présentée reposera sur le développement de méthodes d’apprentissage explicables. Nous traiterons de la difficulté de définir de manière objective de « bonnes explications » dans le processus d’apprentissage. L’ambition de ces recherches vise à identifier de nouveaux biomarqueurs capables d’identifier de manière précoce avant tout signe clinique la fragilité.
|
11h00 |
Session Ateliers et Actions 1 |
Atelier EXMIA et Action DSChem (Salle J004)
Programme |
Action DAE (Salle J100)
Programme |
Action SaD-2HN (Salle J101)
Programme |
Atelier GeoKIF (Salle J201)
Programme |
Action TIDS (Salle J203)
Programme |
13h00 |
Pause repas |
14h00 |
Mise en lumière de travaux JCJC (Amphithéâtre E – Jacques Maury) |
|
Nelly Barret (Inria)
Healthcare silos unlocked: data integration and federated analytics (résumé)
Résumé : Healthcare is more and more relying on digital information, bringing new challenges for its management, exploration, and usage. Clinicians are interested in better understanding complex diseases, so they need to produce and exchange data to mutualize sources and join forces. However, it may be of various kinds (clinical reports, DNA sequences, MRI scans, etc) and, due to privacy regulations, healthcare data cannot exit the original silo in which it has been produced (typically owned by hospitals). Therefore, a natural way consists in using a decentralized architecture and Federated Learning algorithms. This ensures that data stays in the organization in which it has been collected, but requires data to be collected in similar settings and similar models. In practice, this is often not the case because healthcare institutions work individually with different representations and raw data; they do not have means to normalize their data, and even less to do so across centers. We designed and implemented a framework, named I-ETL, for integrating and exploring highly heterogeneous healthcare datasets of hospitals. Our proposal is three-fold: (i) we devise two general and extensible conceptual models for modeling both data and metadata; (ii) we propose an Extract-Transform-Load (ETL) pipeline integrating input data while ensuring and assessing interoperability from the start; and (iii) we provide a general catalog conceptual model and profiling techniques to extract information of interest from silos. Our proposals are general enough to be used in various healthcare scenarios with diverse kinds of data. In the end, it facilitates experts’ work in creating Federated Learning algorithms running in networks of interoperable healthcare silos.
|
|
Gaël Poux-Médard (WHO/IARC) Annulée
Interactions entre informations dans les processus de diffusion de l’information (résumé)
Résumé : Il y a deux décennies de cela, nous sommes entrés dans l’ère de l’information. Acteurs indiscutables de cette transition, les réseaux sociaux ont considérablement modifié la manière dont les individus s’informent et interagissent avec les contenus qu’ils y découvrent. Les flux gargantuesques de données qui en résultent nécessitent de nouvelles stratégies de traitement de l’information. Plutôt que de référencer individuellement chaque fragment d’information, comme le ferait une bibliothèque, une approche plus pertinente consiste à extraire les idées générales convoyées par ces flux d’informations, sans se focaliser sur le détail. Or, discerner des tendances au sein de telles masses de données requiert une compréhension fine des mécanismes de diffusion sous-jacents, qui peuvent être influencés par un grand nombre de facteurs. Dans ma thèse, je m’intéresse en particulier à l’un de ces facteurs : l’interaction entre informations. On dit qu’une interaction a lieu lorsque la réaction d’une personne confrontée à une information (tweet, mème, post) est influencée par son exposition antérieure à d’autres informations. Bien que la modélisation de la diffusion d’informations sur les réseaux sociaux soit un domaine de recherche actif depuis de nombreuses années, la modélisation des interactions entre informations reste un aspect inexploré de cette littérature. Pourtant, ces considérations pourraient se révéler cruciales pour la compréhension des dynamiques de diffusion et des effets de contagion sur les réseaux sociaux, et des problématiques en découlant directement : mécanismes d’influence, désinformation en ligne, exploitation et prévention de nos propres biais cognitifs. Dans ce travail de thèse, je développe donc un éventail de nouvelles méthodes d’apprentissage automatique, permettant de dévoiler, d’interpréter, et de visualiser cet aspect particulier des mécanismes de diffusion de l’information en ligne.
|
14h45 |
Session Ateliers et Actions 2 |
Action HELP (Salle J004)
Programme |
Action TIDS (Salle J100)
Programme |
Atelier DatAstro (Salle J101)
Programme |
Action Musiscale (Salle J201)
Programme |
|
16h45 |
Pause |
17h00 |
Gong Show (Amphithéâtre E – Jacques Maury) |
17h45 |
Cocktail et Posters
Liste des posters |
19h00 |
Fin de journée |
|
Mercredi 28 mai 2025 |
9h00 |
Session Ateliers et Actions 3 |
GT RECAST (Salle J004)
Programme |
Action SimpleText (Salle J100)
Programme |
Atelier SIMDAC (Salle J101)
Programme |
|
|
11h00 |
Pause |
11h15 |
Keynote Christel Vrain – LIFO, U. Orléans (Amphithéâtre E – Jacques Maury)
Clustering sous contraintes : intégration de connaissances et explicabilité (résumé)
Résumé : La classification non supervisée (clustering) est souvent utilisée en Apprentissage Automatique, dans une phase d’analyse exploratoire des données. Cependant les résultats d’un clustering dépendent de nombreux facteurs, comme la modélisation des données, le choix d’un algorithme et de ses paramètres, la définition d’une distance Le clustering est donc un processus itératif : si les résultats d’un clustering ne conviennent pas à l’expert, il doit alors modifier l’un de ces paramètres, et ce alors que leur influence sur le résultat lui est souvent opaque.
Dans cet exposé nous nous intéressons à la problématique d’intégration d’un expert dans un processus de clustering (« human in the loop »). Nous nous plaçons dans le cadre du clustering sous contraintes, introduisant des connaissances de l’expert sous forme de contraintes qui doivent être respectées par le clustering produit. Nous nous focalisons sur l’interprétabilité du clustering et nous présentons un nouveau cadre, le clustering descriptif, permettant de coupler la recherche d’un « bon » clustering favorisant le regroupement d’objets similaires tout en étant interprétable dans un espace de descriptions. Ces travaux seront illustrés par des applications à la chemo-informatique, la santé et l’éducation.
|
12h00 |
Échange avec CNRS Sciences Informatiques |
12h20 |
Interventions GDR Sport, PEPR ICCARE et GDR MAGIS |
13h00 |
Pause repas |
14h00 |
Session Axe Modèles de connaissances et raisonnement (Amphithéâtre E – Jacques Maury) |
16h00 |
Fin du Symposium |
Mardi 27 mai 2025 – Salle J004 |
11h00 |
Présentation de Thomas Schiex (INRAE)
A neuro-symbolic AI learns how to solve hard molecular puzzles (résumé)
Résumé : Pour le design computational de protéines, une étape cruciale consiste à identifier des séquences d’acides aminés qui codent une structure 3D cible, un problème aussi appelé “inverse folding ». L’approche qui a longtemps dominé, en particulier dans le logiciel Rosetta, consiste à minimiser une fonction de score décomposable combinant des lois simplifiées de la physique avec des mesures statistiques simples, sur un espace chimico-géométrique défini par une librairie de paires (acide aminé, géométrie de la chaîne latérales). Le caractère simplifié et décomposable des lois de la physique utilisées est nécessaire pour permettre un calcul efficace du problème d’optimisation d’énergie à résoudre. Nous proposons d’apprendre, par apprentissage profond, un générateur de fonctions de score décomposables « gros grains », conditionné par la structure cible. Pour une structure cible, la fonction de score générée peut ensuite être contrainte ou biaisée par des objectifs de design spécifiques, puis optimisée par des outils de raisonnement automatique ou par toute méthode d’optimisation idoine. Sur différents problèmes de design, le générateur Effie montre des capacités qui dépassent de façon quantitative ou qualitative celles de fonctions de score bien connues, qu’il s’agisse de fonctions de score « full-atom » issues de Rosetta, ou de fonctions de score entièrement basées sur de l’apprentissage profond.
|
11h45 |
Présentation de Derin OZER (LERIA)
Vers une planification de synthèse explicable et généralisable : MCTS guidé par apprentissage sur des réactions génériques. (résumé)
Résumé : Les modèles actuels de prédiction de réactions chimiques et de chemins de synthèse sont fréquemment évalués sur des jeux de données comme USPTO, accessibles et gratuits, mais ne couvrant qu’une portion limitée de la diversité chimique réelle. Issus exclusivement de brevets américains, ces jeux favorisent certaines classes de réactions industrielles tout en négligeant de nombreuses transformations simples mais essentielles à la construction de véritables voies de synthèse.
Par ailleurs, les modèles existants reposent soit sur l’apprentissage direct à partir de paires réactifs-produits, sans aucune information explicite sur la réaction, ce qui limite leur capacité de généralisation ; soit sur des règles réactionnelles très strictes, qui imposent une correspondance quasi unique entre réactifs et produits, restreignant fortement l’exploration de l’espace chimique.
Pour répondre à ces limitations, nous proposons un ensemble de réactions génériques conçu pour capturer l’essentiel des transformations chimiques tout en autorisant une certaine flexibilité. Sur cette base, nous développons une approche de planification de synthèse reposant sur un algorithme de Monte Carlo Tree Search (MCTS). Chaque chemin dans l’arbre représente une séquence plausible de réactions, et l’exploration est guidée par un modèle Transformer entraîné en auto-supervision pour prédire une distance d’édition de graphe en fonction de nos réactions entre l’état courant et la molécule cible. Cette estimation agit comme heuristique pour orienter efficacement la recherche. Cette approche hybride, combinant raisonnement symbolique et apprentissage automatique, constitue une piste prometteuse vers une planification de synthèse plus robuste, généralisable et explicable.
|
12h00 |
Présentation de Mariana Brito Azevedo (GREYC)
Explicabilité des réseaux de neurones pour la conception de médicaments (résumé)
Résumé : Les modèles d’intelligence artificielle et les réseaux de neurones ont montré leur intérêt dans les phases amont de la conception de médicaments, notamment pour la prédiction de l’activité de molécules sur une cible biologique. Ce travail de thèse a pour objectif de développer des techniques afin d’expliquer aux chercheurs en sciences du médicament quelles structures chimiques sont importantes dans l’activité des molécules. Des résultats sur un nouveau classifieur fondé sur des GNN (Graph Neuronal Network) utilisant le graphe des atomes et le graphe des caractéristiques pharmacophoriques sera présenté ainsi que des résultats préliminaires sur l’explicabilité.
|
12h15 |
Présentation de Ataollah Kamal (LIRIS)
Explainability of Molecular Graph Neural Network (résumé)
Résumé : In recent years, deep learning models such as Graph Neural Networks (GNNs) have become powerful tools for predicting complex biochemical interactions. These models have demonstrated remarkable performance in tasks such as drug discovery, receptor-ligand modeling, and molecular biology. However, their black-box nature limits their usefulness in fields like chemistry and biology, where interpretability is essential for gaining trust and insight into the underlying mechanisms of biochemical processes. This presentation introduces a novel method, ESPAM (Efficient Symmetric Perturbation Attribution Method), designed to address the challenge of interpretability in GNN predictions ithin molecular settings. ESPAM provides explanations for GNN predictions by identifying which parts of a molecule or receptor sequence are most responsible for a model’s prediction. The approach is rooted in cooperative game theory concepts, specifically leveraging Fair-Efficient-Symmetric-Perturbation (FESP) values, which offer theoretical guarantees for the faithfulness and consistency of the generated explanations.
|
13h00 |
Présentation de Lise Kastner (GREYC)
BOWSA: une approche combinée de l’optimisation bayésienne et de l’analyse de sensibilité pour optimiser les paramètres de réactions chimiques (résumé)
Résumé : En chimie, une expérience est définie par un ensemble de paramètres expérimentaux et un rendement associé. Dans ce contexte, il est donc important d’identifier rapidement une configuration de paramètres conduisant à un rendement productif, mais cette recherche peut s’avérer coûteuse en ressources. L’optimisation bayésienne est une méthode permettant d’explorer plus efficacement l’espace des configurations. Cependant, elle peut être améliorée afin d’identifier plus rapidement les paramètres intéressants. Notre contribution, BOWSA, utilise l’analyse de sensibilité pour évaluer l’impact de chaque paramètre sur les rendements. À partir de cette analyse, BOWSA attribue un score aux configurations proposées par l’optimisation bayésienne et sélectionne les plus pertinentes. Une évaluation a été menée sur plusieurs jeux de données synthétiques ainsi que sur des réactions chimiques. Les résultats montrent qu’en moyenne, BOWSA identifie des configurations donnant des rendements productifs plus tôt que l’optimisation bayésienne seule.
|
12h45 |
Présentation de Philippe Meyer (MICALIS Institute, INRAE)
Deterministic and Generative Approaches to Reverse-Engineering Molecular Fingerprint (résumé)
Résumé : Extended Connectivity Fingerprints (ECFPs) are a staple molecular descriptor in cheminformatics, widely used for their efficiency in similarity searching, clustering, and machine learning. However, they are commonly assumed to be non-invertible due to their lossy, hashed nature—making them difficult to use in reverse engineering applications. In this work, we present a deterministic algorithm capable of reconstructing molecular structures from ECFP vectors by solving linear Diophantine systems on molecular fragments. To benchmark this approach, we compare it with a Transformer-based generative model trained to predict SMILES from ECFPs. While the generative model achieves high top-1 accuracy in retrieval tasks, it struggles with exhaustive enumeration. In contrast, the deterministic method enables complete and interpretable reconstruction within the limits of a defined molecular fragment alphabet. Applying this method to a drug dataset demonstrates its potential for de novo drug design, as many reverse-engineered structures are found to be patented or supported by bioassay data. Our findings demonstrate the utility of ECFPs for chemical space exploration and de novo molecular design, as the reverse-engineering techniques presented enable accurate and efficient molecular reconstruction.
|
13h00 |
Fin |
Mardi 27 mai 2025 – Salle J100 |
11h00 |
Introduction – Objectifs de l’Action |
11h10 |
Présentation de Pierre Labadie (CNRS, EPOC)
Présence et transfert des composés per- et polyfluoroalkylés (PFAS) dans les écosystèmes : focus sur les milieux aquatiques |
11h30 |
Présentation de Luc Martinon (Data journalist)
PFAS Data Hub. Présentation du projet CNRS : Plateforme pour les données des polluants PFAS |
12h15 |
Présentation de Davide Di Pierro (INRAE, U. Montpellier)
OntoPFAS : Ontologie des polluants et de leur exposition |
12h45 |
Discussions |
13h00 |
Fin |
|
Mardi 27 mai 2025 – Salle J101 |
11h00 |
Introduction – Objectifs de l’Action et de l’Atelier |
11h05 |
Présentation de Francesco Beretta
Conceptualiser la projection de phénomènes temporels dans les référentiels du temps: Wikidata, CIDOC CRM, OWL-time, SHDSS |
11h20 |
Présentation de Quentin Bernet
Penser la production artistique de l′Europe médiévale, entre données, marges et modèles. |
11h45 |
Présentation collective de Christophe Tufféry, Thomas Andre, Jérémie Garniaux, Louis Marguet, Stéphane Renault, Erwan Vaissié, Pierre Allard, Raphaël Angevin, Pierre-Antoine Beauvais, Didier Binder, Françoise Bostyn, Céline Bressy-Léandri, Jean-Philippe Colin, Elsa Defranould, Paul Fernandes, Alix Gibaud, Sophie Grégoire, Mikaël Guiavarc’h, Francois-Xavier Le Bourdonnec, Harold Lethrosne, Ludovic Mevel André Morala, Nicolas Naudinot, Antoine Pasqualini, Michel Piboule, Alain Queffelec, Jean-Paul Raynal, Antonin Tomasso, Alain Turq et Vincent Delvigne
Méthodes et dispositifs pour caractériser, analyser et partager les données sur les formations et les gîtes à silicites. Retour d’expérience sur vingt années de travaux interdisciplinaires |
12h00 |
Présentation de Luana Batista-Goulart
L’analyse de données en bioarchéologie : défis et limitations |
12h15 |
Présentation de Charles de Miramon et Isabelle Brancourt
Transcrire et analyser automatiquement le fonds du Parlement de Paris |
12h30 |
Présentation de Gabriel Frossard
L’IA au service de la démographie historique (2022-2026) |
12h45 |
Questions et discussions |
13h00 |
Fin |
|
Mardi 27 mai 2025 – Salle J201 |
11h00 |
Présentation de l’Atelier |
11h10 |
Présentation de Emilie Ostanciaux
Infrastructures de recherche nationales et européennes dédiées aux données du système terre. |
11h45 |
Présentation de Fatma Chamekh
Etat de l’art sur les ressources sémantiques en géologie. |
12h15 |
Présentation de Amit Charma
architecture technique de jumeau numérique.
ou
Présentation de Nicolas Hiot
Titre à définir |
12h45 |
Discussions |
13h00 |
Fin |
|
Mardi 27 mai 2025 – Salle J004 |
14h45 |
Présentation de Moncef Garouani (IRIT)
Automated and Explainable Machine Learning: Fundamentals, Challenges and Opportunities |
15h15 |
Présentation de Sekou Dabo (Doctorant ETIS Lab)
Enhancing Remote Sensing Models through Explainable AI |
15h45 |
Présentation de Ronan Pons (UT Capitole)
Transparence, biais algorithmique ou robustesse : l’encadrement des propriétés de l’IA par le droit |
16h15 |
Discussions |
16h45 |
Fin |
|
Mardi 27 mai 2025 – Salle J203 |
11h00 |
Ouverture
par Christine Sinoquet, Natalia Grabar et Nicolas Lachiche |
11h15 |
Présentation de Lynda Tamine (IRIT)
Accès aux données de dossiers patients en utilisant les grands modèles de langue : défis et solutions |
12h00 |
Présentation de Salima Ben Ayed (U. Toulouse), Olivier Oger (CHC Liège), Philippe Olivier (CHC Liège), Safa Bhar Layeb (U. Toulouse) et Franck Fontanili (U. Toulouse)
De la réception des messages HL7 à une base de données PostgreSQL : étude de cas au sein d’une clinique en Belgique |
12h30 |
Présentation de Salima Ben Ayed (U. Toulouse), Olivier Oger (CHC Liège), Philippe Olivier (CHC Liège), Franck Fontanili (U. Toulouse) et Safa Bhar Layeb (U. Toulouse)
Messages HL7 : Un Pilier de l’Interopérabilité Hospitalière |
13h00 |
Fin |
Mardi 27 mai 2025 – Salle J100 |
14h45 |
Présentation de Mohamed Maazoun (IMT Mines Albi), Margarita Naryzhnyaya (CHC Liège), Olivier Oger (CHC Liège), Philippe Olivier (CHC Liège), Safa Bhar Layeb (U. Toulouse) et Franck Fontanili
Optimisation de la planification opératoire par la prédiction des durées : Application dans une clinique en Belgique |
15h15 |
Présentation de Mohamed Maazoun (IMT Mines Albi), Margarita Naryzhnyaya (CHC Liège), Olivier Oger (CHC Liège), Philippe Olivier (CHC Liège), Safa Bhar Layeb (U. Toulouse) et Franck Fontanili (U. Toulouse)
Du planning à la réalité : alignement des durées opératoires par apprentissage automatique |
15h30 |
Présentation de Jose G. Moreno (IRIT), Jesús Lovón-Melgarejo (IRIT), M’Rick Robin-Charlet (IRIT), Christine Damase-Michel (CERPOP), et Lynda Tamine (IRIT)
PatientDx: merging Large Language Models for protecting data-privacy in healthcare |
16h00 |
Présentation de Judith Jeyafreeda (Institut Imagine)
Using Large Language Models for temporal relation extraction in clinical reports. A study on patient timeline creation for rare diseases |
16h20 |
Table ronde
animée par Christine Sinoquet, Natalia Grabr et Nicolas Lachiche |
16h45 |
Fin |
|
Mardi 27 mai 2025 – Salle J101 |
14h45 |
Introduction de André Schaaff et Nicolas Lumineau
Introduction et présentation du nouvel atelier |
15h00 |
Présentation de Simon Dupourqué et Didier Barret (IRAP)
Machine learning et calcul haute performance pour l’astronomie à rayons X (résumé)
Résumé : l’inférence statistique est au cœur de nombreuses publications en astrophysique. Aujourd’hui, le paradigme évolue vers une généralisation de l’inférence bayésienne, qui fournit des distributions de paramètres robustes à partir d’un modèle et d’observations, tout en évitant les minima locaux. Toutefois, ces méthodes sont lentes et très gourmandes en calcul. Accélérer l’inférence bayésienne est donc un enjeu majeur pour les prochaines décennies, notamment grâce aux réseaux de neurones. L’inférence basée sur la simulation, en particulier, utilise des normalising flows pour apprendre une correspondance entre les espaces des paramètres et des observations. Ces réseaux peuvent être conditionnés et inversés facilement pour résoudre des problèmes d’inférence. Conçues à l’origine pour des inférences sans vraisemblance, ces méthodes permettent aussi une meilleure interprétation, notamment face à des données à haute dimension, comme en spectroscopie X à haute résolution. En réduisant de manière pertinente les spectres à une dizaine de statistiques bien définies, on peut considérablement accélérer l’inférence tout en gardant une interprétation physique solide. Cette approche est appliquée à des cas astrophysiques concrets que le futur observatoire Athena/X-IFU étudiera après son lancement en 2037.
|
15h30 |
Présentation de Roman Le Montagner (IJCLab)
Astronomie transitoire à l’ère des grands relevés du ciel avec Fink et Vera C. Rubin |
16h10 |
Présentation de Nicolas Dobigeon, Thomas Oberlin, Olivier Berné (IRAP)
Fusion de données astronomiques de grande dimension |
16h40 |
Perspectives et conclusion |
16h45 |
Fin |
|
Mardi 27 mai 2025 – Salle J201 |
14h45 |
Présentation de Jean-Marc Chouvel (IReMus, Sorbonne Université)
Convolution et échelles de temps (résumé)
Résumé : Le terme de convolution s’est introduit dans le monde musical à travers la révolution des réverbérations « à convolution ». Retranscrivant avec un réalisme inégalé les effets de l’espace sur la réception du son, ces traitements ont représenté une avancée considérable dans la compréhension de notre rapport à la réalité sonore. Nous essaierons de poser la question de la généralisation du principe de convolution à d’autres échelles que celles de la salle d’écoute, depuis la production même du son jusqu’à la grande forme.
|
16h45 |
Fin |
|
Programme du GT RECAST
Mercredi 28 mai 2025 – Salle J004 |
9h00 |
Présentation de Nathalie Pernelle (U. Sorbonne Paris Nord)
Etudier l’effet de pair : modèles linéaires en moyenne ou règles de la logique du premier ordre ? (résumé)
Résumé : Les économistes ont tenté d’identifier les effets de pairs en utilisant divers modèles économétriques. L’un des plus couramment utilisés est le modèle linear-in-means, qui suppose que les individus sont influencés de manière linéaire par les actions et les caractéristiques moyennes de leurs pairs. Nous proposons de comparer les résultats obtenus par deux types d’approches prédictives : (1) un modèle linear-in-means et (2) une approche générique d’extraction de règles de la logique du premier ordre, adaptée en définissant des biais spécifiques. Les expériences ont été menées sur un ensemble de données réelles portant sur les choix de spécialités préférés des étudiants en médecine.
|
9h40 |
Présentation de Marie-Laure Mugnier (U. Montpellier)
Intégration de données et connaissances : application à la sélection d’espèces de service en agroécologie (résumé)
Résumé : Il y a un besoin crucial d’outils pour aider les chercheurs, techniciens et agriculteurs à concevoir de nouveaux agroécosystèmes durables basés sur l’agroécologie. En effet, ces systèmes sont intrinsèquement complexes et leur conception nécessite l’intégration de données diverses et de connaissances scientifiques non stabilisées. En collaboration avec des chercheurs agronomes, nous nous sommes intéressés à la sélection de plantes de services en lien avec leur capacité à fournir des services écosystémiques. Nous avons adopté une démarche combinant une représentation formalisée de connaissances émergentes en agronomie et l’exploitation de données collectées indépendamment par la communauté de recherche en écologie. Nous avons plus spécifiquement appliqué cette démarche à l’enherbement des vignobles, c’est-à-dire la sélection d’espèces herbacées susceptibles de fournir différents services à la vigne. Dans cet exposé je présenterai les différents aspects de l’étude menée : principes d’intégration des données et connaissances, méthodologie d’acquisition des connaissances, architecture de l’outil développé, représentation des connaissances et raisonnements, première évaluation d’outil et enseignements tirés.
|
10H20 |
Présentation de Simon Coumes (LTCI, Institut Polytechnique de Paris)
Qiana : Un formalisme du premier ordre pour quantifier les contextes et les formules (résumé)
Résumé : Nous présentons Qiana, un cadre logique permettant de raisonner sur des formules qui ne sont vraies que dans des contextes spécifiques. Dans Qiana, il est possible de quantifier à la fois les formules et les contextes pour exprimer, par exemple, que « tout le monde sait tout ce que dit Alice ». Qiana autorise également les logiques paraconsistantes dans les contextes, de sorte que les contextes peuvent contenir des contradictions. De plus, Qiana est basé sur la logique du premier ordre et est finiment axiomatisable, de sorte que les théories Qiana sont compatibles avec les prouveurs de théorèmes préexistants en logique du premier ordre. Cette dernière propriété signifie que nous pouvons l’utiliser pour le raisonnement neurosymbolique.
|
11h00 |
Fin |
|
Mercredi 28 mai 2025 – Salle J100 |
9h00 |
Ouverture et présentation de la campagne d’évaluation SimpleText@CLEF |
9h30 |
Présentation de Eric Sanjuan (U. Avignon)
Traitement de textes juridiques |
10h00 |
Présentation de Jaap Kamps (U. Amsterdam)
Titre à définir |
10h30 |
Présentation de Liana Ermakova (U. Brest)
Hallucinations des LLMs dans le contexte de la simplification de textes scientifiques |
11h00 |
Fin |
|
Mercredi 28 mai 2025 – Salle J101 |
9h00 |
Présentation de Pratik Gajane (LIFO)
Exploring the Role of Similarity in Enhancing Reinforcement Learning for Healthcare Sequences (résumé)
Résumé : This talk does not present work on similarity learning per se, but rather explores how techniques from similarity learning might help address several challenges in reinforcement learning (RL) for healthcare—a domain that motivates much of my research. The goal is to identify potential directions for collaboration at the intersection of RL and similarity-based methods. I will focus on five areas: (i) mitigating cold-start issues in treatment recommendation through population-level cohort similarity, (ii) using similarity to estimate and enhance fairness, (iii) leveraging inter-task similarity to support transfer and lifelong learning, (iv) incorporating similarity in non-stationary sequential data, such as evolving patient conditions, to improve recommendations, and (v) exploring similarity of relative patient feedback (e.g., comparative treatment preferences) to inform treatment suggestions based on shared response profiles. These settings suggest natural points of connection with current work on complex, possibly non-stationary sequences, and raise questions that may benefit from joint perspectives.
|
10h00 |
Discussions ouverte aux autres Ateliers et Actions
Enjeux, verrous et étude des similarités |