Programme
Début de l'atelier
14h00-14h10 Mots d'ouverture
Présentation invitée
14h10-15h00 Expliquer les GNNs en identifiant les structures cachées dans les représentations apprises, Céline Robardet
Résumé : De nombreux problèmes d'apprentissage sur graphes sont efficacement résolus à l'aide de réseaux de neurones sur graphes (GNNs). Ces modèles sont basés sur l'apprentissage de représentations des nœuds dans un espace Euclidien, ce qui évite la tâche fastidieuse de construction artisanale de descripteurs de graphes. Cependant, ces représentations ne sont pas intelligibles, ce qui constitue un obstacle majeur au déploiement des GNNs, soulevant des questions d'acceptabilité sociale et de fiabilité. Ces limites peuvent être surmontées par l'explication du fonctionnement interne de tels modèles. Pour cela, nous présentons le concept de règles d'activation dans les couches cachées du GNN pour comprendre quels descripteurs et caractéristiques de graphes ont été automatiquement extraits des graphes. Le problème n'est pas de découvrir des règles d'activation individuellement très discriminantes pour une classe du modèle, mais le défi consiste à fournir un petit ensemble de règles qui couvrent tous les graphes d'entrée. L'approche proposée pour quantifier l'intérêt de ces règles repose sur la théorie de l'information pour construire un modèle des connaissances apportées par l'ensemble des règles. Les règles d'activation peuvent ensuite être utilisées pour expliquer les décisions du GNN. Cependant, les règles d'activation ne sont pas interprétables en elles-mêmes puisqu'elles reposent sur les représentations internes du GNN. Nous proposons d'interpréter ces règles en identifiant un graphe entièrement plongé dans le sous-espace associé à chaque règle. Deux méthodes sont proposées. La première est basée sur une recherche arborescente de type Monte Carlo (MCTS) dirigée par une mesure de proximité entre le plongement du graphe et la représentation interne de la règle. La seconde utilise une distances entre graphes fondée sur le transport optimal (OT) pour associer chaque règle au graphe le plus spécifique qui la déclenche.
Présentation des articles
15h00-15h30 Article long : Gradients Intégrés Renforcés, Caroline Mazini Rodrigues, Nicolas Boutry and Laurent Najman
15h30-16h00 Pause
16h00-16h20 Article court : A^3R: Explications argumentées pour les recommandations, Jinfeng Zhong and Elsa Negre
16h20-16h40 Article court : L'explicabilité au service de l'extraction de connaissances : application à des données médicales, Robin Cugny, Emmanuel Doumard, Elodie Escriva and Haomiao Wang
Démonstration invitée
16h40-17h10 Analyse de données du vieillissement à l'aide d'explications SHAP, Emmanuel Doumard
Table ronde
17h10-17h30 Table ronde et clôture de l'atelier
Fin de l'atelier