L’explicabilité dans le domaine de l’intelligence artificielle, et plus particulièrement en machine learning, est devenue aujourd’hui incontournable pour permettre à tout utilisateur de mieux prendre conscience et de mieux s’impliquer dans les décisions algorithmiques qui lui sont proposées.
Les utilisateurs de domaine (médecine, finance, assurance, chimie ...) profitent désormais de systèmes permettant de lever, en partie, le voile sur le problème bien connu de « boite noire ». Ces systèmes posent cependant de nouveaux défis afin de toujours mieux considérer ces utilisateurs finaux. En particulier, se posent aujourd’hui des questions impliquant de nombreuses disciplines et portant par exemple : sur la représentation de ces explications, le besoin de les contextualiser ou d’interagir, le raisonnement , de mesurer leur fiabilité, de les rendre plus éthiques, conformes aux contraintes juridiques, de les adapter aux compétences et connaissance des utilisateurs.
Parmi les nouveaux défis cette année, on pourra s’intéresser plus particulièrement à :
L’évaluation et la comparaison des méthodes d’explicabilité : quelle méthode choisir pour expliquer, dans quel cas, et pour quelle raison ?
Comment expliquer un pipeline complet de traitement de données allant des prétraitements à l’exploitation des données ? Comment les choix réalisés impactent les explications qui peuvent être fournies ?
Cet atelier a pour ambition de rassembler largement tout chercheur investi dans la problématique de l’explicabilité ainsi que tout utilisateur concerné par sa pratique. Pour cette raison, il est co-organisé avec l’action HELP du GdR Madics et du GT EGC en partenariat avec le GT EXPLICON - Groupe de Travail Explicabilité et Confiance - GDR RADIA - CNRS.
L’objectif de cette atelier est de proposer un moment d’échange sur les intentions et avancées possibles liant données, utilisateurs et explications.
OBJECTIFS DE L'ATELIER
Réunir la communauté francophone travaillant sur l’explicabilité
partager les connaissances provenant de domaines scientifiques diverses en explicabilité
réunir chercheurs et praticiens de l’explicabilité
L'atelier Explain'AI est soutenu par le GDR Madics et l’association EGC, en partenariat avec le GT EXPLICON -Groupe de Travail Explicabilité et Confiance - GDR RADIA - CNRS.