Le 28 Janvier 2025

EXPLAIN'AI 2025

4ème édition Hébergé par la conférence EGC 2025 

à l'INSA de Strasbourg

 

L’explicabilité dans le domaine de l’intelligence artificielle, et plus particulièrement en machine learning, est devenue aujourd’hui incontournable pour permettre à tout utilisateur de mieux prendre conscience et de mieux s’impliquer dans les décisions algorithmiques qui lui sont proposées.

Les utilisateurs de domaine (médecine, finance, assurance, chimie ...) profitent désormais de systèmes permettant de lever, en partie, le voile sur le problème bien connu de « boite noire ». Ces systèmes posent cependant de nouveaux défis afin de toujours mieux considérer ces utilisateurs finaux. En particulier, se posent aujourd’hui des questions impliquant de nombreuses disciplines et portant par exemple : sur la représentation de ces explications, le besoin de les contextualiser ou d’interagir, le raisonnement , de mesurer leur fiabilité, de les rendre plus éthiques, conformes aux contraintes juridiques, de les adapter aux compétences et connaissance des utilisateurs.

Parmi les nouveaux défis cette année, on pourra s’intéresser plus particulièrement à :

Cet atelier a pour ambition de rassembler largement tout chercheur investi dans la problématique de l’explicabilité ainsi que tout utilisateur concerné par sa pratique. Pour cette raison, il est co-organisé avec l’action HELP du GdR Madics et du GT EGC   en partenariat avec le GT EXPLICON - Groupe de Travail Explicabilité et Confiance - GDR RADIA - CNRS.

L’objectif de cette atelier est de proposer un moment d’échange sur les intentions et avancées possibles liant données, utilisateurs et explications.



OBJECTIFS DE L'ATELIER

Réunir la communauté francophone travaillant sur l’explicabilité

Partager les connaissances provenant de domaines scientifiques diverses en explicabilité



Réunir chercheurs et praticiens de l’explicabilité