EXPLAIN'AI
3ème édition - Hébergé à la conférence EGC 2024 à Dijon

 L’explicabilité dans le domaine de l’intelligence artificielle, et plus particulièrement en machine learning, est devenue aujourd’hui incontournable pour permettre à tout utilisateur de mieux prendre conscience et de mieux s’impliquer dans les décisions algorithmiques qui lui sont proposées.

Les utilisateurs de domaine (médecine, finance, assurance, chimie ...) profitent désormais de systèmes permettant de lever, en partie, le voile sur le problème bien connu de « boite noire ». Ces systèmes posent cependant de nouveaux défis afin de toujours mieux considérer ces utilisateurs finaux. En particulier, se posent aujourd’hui des questions impliquant de nombreuses disciplines et portant par exemple : sur la représentation de ces explications, le besoin de les contextualiser ou d’interagir, le raisonnement , de mesurer leur fiabilité, de les rendre plus éthiques, conformes aux contraintes juridiques, de les adapter aux compétences et connaissance des utilisateurs.

Parmi les nouveaux défis cette année, on pourra s’intéresser plus particulièrement à :

Cet atelier a pour ambition de rassembler largement tout chercheur investi dans la problématique de l’explicabilité ainsi que tout utilisateur concerné par sa pratique. Pour cette raison, il est co-organisé avec l’action HELP du GdR Madics et du GT EGC   en partenariat avec le GT EXPLICON - Groupe de Travail Explicabilité et Confiance - GDR RADIA - CNRS.

L’objectif de cette atelier est de proposer un moment d’échange sur les intentions et avancées possibles liant données, utilisateurs et explications.


OBJECTIFS DE L'ATELIER

Réunir la communauté francophone travaillant sur l’explicabilité

partager les connaissances provenant de domaines scientifiques diverses en explicabilité

réunir chercheurs et praticiens de l’explicabilité



L'atelier Explain'AI est soutenu par le GDR Madics et l’association EGC, en partenariat avec le GT EXPLICON -Groupe de Travail Explicabilité et Confiance - GDR RADIA - CNRS.