Explicabilité pour l’analyse d’opinions dans les médias sociaux

When:
01/03/2024 – 02/03/2024 all-day
2024-03-01T01:00:00+01:00
2024-03-02T01:00:00+01:00

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : Laboratoire ETIS UMR 8051
Durée : 6 mois
Contact : maria.malek@cyu.fr
Date limite de publication : 2024-03-01

Contexte :
Nous avons exploré dans des travaux récents portant sur l’analyse des médias sociaux, la combinaison des méthodes classiques d’exploration d’opinion avec celles de l’analyse des réseaux sociaux ainsi que leur impact sur la formation et la propagation d’opinion. Afin d’étudier l’impact des utilisateurs influents (nœuds influents), plusieurs facteurs d’influence extraits du réseau (graphe) ont été intégré dans le processus d’exploration d’opinions. Ces facteurs sont généralement calculés en utilisant différentes mesures de centralité comme le degré, la proximité, l’intermédiarité, la centralité PageRank, etc.

En intégrant une méthode d’explicabilité adéquate, nous souhaitons rendre plus compréhensible également les résultats concernant la polarité de l’opinion trouvée au niveau des utilisateurs et au niveau des groupes (communautés). De même, le modèle doit être capable d’expliquer les changements d’opinion détectés en prenant en compte les informations extraites du réseau de propagation et les séquences d’actions entreprises (par exemple : tweets, retweets, réponses) menant à ce changement.

Un modèle transparent basé sur l’apprentissage automatique pour la détection de la modification d’opinions au sein des réseaux égocentriques autour des influenceurs, a été proposé. Ainsi, des caractéristiques (attributs) de différentes natures (textuelle, contextuelle et topologique) qui expliquent la modification de l’opinion, ont pu être identifiées. Nous souhaitons généraliser cette approche afin de pouvoir proposer un cadre général de l’explicabilité pour l’analyse des opinions dans les médias sociaux.

Sujet :
Le but de stage est de proposer et d’intégrer une (ou plusieurs) méthode(s) d’explicabilité dans les algorithmes d’analyse d’opinions afin de produire des explications émergeantes qui combinent des informations nodales (comme le profil d’utilisateur et les données textuelles) et topologiques extraites de la structure du graphe de propagation des opinions.

L’objectif est d’étudier et de compare deux principales approches de l’explicabilité dans les réseaux complexes à travers l’exemple de l’étude de l’analyse d’opinions : la première consiste à l’utilisation des méthodes XAI lors de l’application des méthodes d’apprentissage automatique pour l’analyse des réseaux, comme par exemple, les méthodes de network embedding ainsi que les réseaux de neurones en graphes (Graph Neural networks), la deuxième approche consiste à définir des méthodes d’explicabilité propres au domaine de l’analyse des réseaux. Ces méthodes seront par nature spécifiques et en lien étroit avec les algorithmes d’analyse du graphe du terrain social utilisés lors de l’analyse d’opinions.

Profil du candidat :
Dernière année d’un Master ou d’un diplôme d’ingénieur dans un domaine en lien avec l’informatique ou les mathématiques appliquées.

Formation et compétences requises :
Connaissances en apprentissage automatique et compétences en Python. Une compétence en analyse des réseaux complexes sera appréciée.

Adresse d’emploi :
ETIS UMR8051, CY Université, ENSEA, CNRS
Site Saint Martin 1
2, avenue Adolphe Chauvin
95302 CERGY PONTOISE

Document attaché : 202401171405_Proposition_M2_ETIS_Explicabilité_AnalyseOpinions.pdf