Programme

Début de l'atelier


  • 14h00-14h10 Mots d'ouverture


Présentation invitée


  • 14h10-15h00 Expliquer les GNNs en identifiant les structures cachées dans les représentations apprises, Céline Robardet

Résumé : De nombreux problèmes d'apprentissage sur graphes sont efficacement résolus à l'aide de réseaux de neurones sur graphes (GNNs). Ces modèles sont basés sur l'apprentissage de représentations des nœuds dans un espace Euclidien, ce qui évite la tâche fastidieuse de construction artisanale de descripteurs de graphes. Cependant, ces représentations ne sont pas intelligibles, ce qui constitue un obstacle majeur au déploiement des GNNs, soulevant des questions d'acceptabilité sociale et de fiabilité. Ces limites peuvent être surmontées par l'explication du fonctionnement interne de tels modèles. Pour cela, nous présentons le concept de règles d'activation dans les couches cachées du GNN pour comprendre quels descripteurs et caractéristiques de graphes ont été automatiquement extraits des graphes. Le problème n'est pas de découvrir des règles d'activation individuellement très discriminantes pour une classe du modèle, mais le défi consiste à fournir un petit ensemble de règles qui couvrent tous les graphes d'entrée. L'approche proposée pour quantifier l'intérêt de ces règles repose sur la théorie de l'information pour construire un modèle des connaissances apportées par l'ensemble des règles. Les règles d'activation peuvent ensuite être utilisées pour expliquer les décisions du GNN. Cependant, les règles d'activation ne sont pas interprétables en elles-mêmes puisqu'elles reposent sur les représentations internes du GNN. Nous proposons d'interpréter ces règles en identifiant un graphe entièrement plongé dans le sous-espace associé à chaque règle. Deux méthodes sont proposées. La première est basée sur une recherche arborescente de type Monte Carlo (MCTS) dirigée par une mesure de proximité entre le plongement du graphe et la représentation interne de la règle. La seconde utilise une distances entre graphes fondée sur le transport optimal (OT) pour associer chaque règle au graphe le plus spécifique qui la déclenche.


Présentation des articles


  • 15h00-15h30 Article long : Gradients Intégrés Renforcés, Caroline Mazini Rodrigues, Nicolas Boutry and Laurent Najman

  • 15h30-16h00 Pause

  • 16h00-16h20 Article court : A^3R: Explications argumentées pour les recommandations, Jinfeng Zhong and Elsa Negre

  • 16h20-16h40 Article court : L'explicabilité au service de l'extraction de connaissances : application à des données médicales, Robin Cugny, Emmanuel Doumard, Elodie Escriva and Haomiao Wang


Démonstration invitée


  • 16h40-17h10 Analyse de données du vieillissement à l'aide d'explications SHAP, Emmanuel Doumard


Table ronde


  • 17h10-17h30 Table ronde et clôture de l'atelier


Fin de l'atelier