Le Groupe de Travail EXPLICON (Explicabilité et confiance) du GdR RADIA (CNRS Sciences Informatique) et l'IRIT ont organisé une journée d'étude autour d'Argumentation et Explicabilité le vendredi 23 mai 2025 à l'Université Toulouse Capitole.
L'objectif a été de rassembler des chercheurs concernés par ces aspects et de susciter, au travers de présentations, des discussions, des réflexions et des travaux autour de ce thème.
Deux exposés invités sont également stimuler les échanges. Programme et présentations ci-dessous.
09h45-10h00 : Café de bienvenue
10h00-10h15 : Introduction à la Journée
10h15-11h15 : Exposé invité Antonio Rago (Imperial College London) - "A Little of That Human Touch: Achieving Human-Centric Explainable AI via Argumentation"
11h15-11h30 : Pause Café
11h30-12h00 : Dao Thauvin (ONERA - DTIS, Université Paris Saclay) - "Classification d'images interprétable par le biais d'un dialogue argumentatif entre encodeurs"
12h00-12h30 : Yann Munro (LIP6) - "Explications causales pour les systèmes d’argumentation bipolaire pondérée"
12h30-13h00 : Rémi Kazmierczak (ENSTA Paris) - "CLIP-QDA: An Explainable Concept Bottleneck Model"
13h00-14h00 : Déjeuner
14h00-14h30 : Exposé invité Martin Cooper (IRIT, Université de Toulouse) - “Explaining Decisions via Formal Reasoning”
14h30-15h00 : Ryma Boumazouza (Airbus AI Research) - "Towards Formal Explanations of Neural Networks: Optimizing Deletion-Based Algorithms with Robustness Queries"
15h00-15h30 : Anh Thu Mai (STMicroelectronics, GIPSA-lab Grenoble INP) - "What, Where and Why: decoding the black box of object detection through Explainable AI"
15h30-15h45 : Pause Café
15h45-16h15 : Olivier Létoffé (IRIT, Université de Toulouse) - "Utilisation de la théorie des jeux pour l'explicabilité : Mythes et réalité"
16h15-16h45 : Théo Duchatelle (Akkodis) - "Explicabilité pour l'argumentation : une approche visuelle pour le problème de vérification"
16h45-17h00 : Conclusion de la Journée
Antonio Rago (Imperial College London) : "A Little of That Human Touch: Achieving Human-Centric Explainable AI via Argumentation"
As data-driven AI models achieve unprecedented feats across previously unthinkable tasks, the diminishing levels of interpretability of their increasingly complex architectures can often be sidelined in place of performance. If we are to comprehend and trust these AI models as they advance, it is clear that symbolic methods, given their unparalleled strengths in knowledge representation and reasoning, can play an important role in explaining AI models. In this talk, I discuss some of the ways in which one branch of such methods, computational argumentation, given its human-like nature, can be used to tackle this problem. I first outline a general paradigm for this area of explainable AI, before detailing a prominent methodology therein which we have pioneered. I then illustrate how this approach has been put into practice with diverse AI models and types of explanations, before looking ahead to challenges, future work and the outlook in this field.
We study the problem of finding formally-correct explanations of classifier decisions. Among the different types of explanation that have been proposed, we can distinguish two main families: abductive and contrastive explanations, which are respectively answers to `Why' and `Why not' questions.
We now have a fairly comprehensive picture of the computational complexity of different explanation tasks, even in the presence of constraints between features. In particular, when finding a minimal or minimum-cardinality explanation, we have a characterisation of those classifiers for which explaining is polynomial-time.
When the classifier is a black box, to avoid the intractability of an exhaustive search, we can use sample-based definitions of explanations. In the context of sample-based explanations, we show that it is possible to guarantee certain formal properties such as coherence of explanations using a definition of explanation based on a surrogate classifier.
Manufacture des Tabacs
21 allée de Brienne
31042 Toulouse
MS001 / MS003
Inscription gratuite mais obligatoire avant le 15 mai 2025.
Sont bienvenues, toutes présentations sur des thèmes tels que :
Explications à base d'argumentation pour les modèles d’apprentissage automatique
Explications à base d'argumentation pour cadres formels
Explications pour l'argumentation, abstraite ou structurée
Évaluation et comparaison de méthodes d’explication à base d'argumentation
Analyse comparative et évaluation de performance des explications, en particulier à base d'argumentation
Applications de méthodes d’explicabilité à base d'argumentation à des cas pratiques
Droit et éthique pour l’explicabilité, en particulier à base d'argumentation
...
Cette liste n'est pas exhaustive et toute contribution proche du thème de la journée pourra être considérée, que ce soient des présentations de travaux aboutis ou des pistes de réflexion.
Nous lançons donc un appel à contributions et vous demandons d'adresser vos propositions -- titre, résumé d'une demi à une page, et quelques mots-clés -- à :
Sylvie Doutre (sylvie.doutre@irit.fr)
Leila Amgoud (leila.amgoud@irit.fr)
Marie-Christine Lagasquie-Schiex (marie-christine.lagasquie@irit.fr)
Jean-Guy Mailly (jean-guy.mailly@irit.fr)
avant le 31 mars 2025.