Programme
9h00-9h15 Ouverture de l’atelier
9h15-10h15 Présentation de MARCO PANZA, Directeur de Recherche, CNRS, IHPST (CNRS et Univ. Paris 1) & Chapman University.
10h15-10h15 Pause
Session Philosophie, terminologie et raisonnement :
10h30-10h55 Esquisses philosophiques autour de la compréhension de phénomènes complexes avec des outils de prédiction basés sur de l’apprentissage machine, Christophe Denis
10h55-11h20 Une terminologie pour une IA explicable contextualisée, Matthieu Bellucci, Nicolas Delestre, Nicolas Malandain and Cecilia Zanni-Merk
11h20-11h45 Explications analogiques, Henri Prade and Gilles Richard
Session Sélection de variables et Times Series :
11h45-12h10 Influence d’un process de sélection de variables sur le profil d’explicabilité d’un modèle d’apprentissage machine généré par autoML: une étude préliminaire, Haomiao Wang, Julien Aligon and Paul Monsarrat, Chantal Soulé-Dupuy, Philippe Kemoun, Emmanuel Doumard
12h10-12h35 The Road to Effective Temporal Explainability, Michele Linardi and Vassilis Christophides
12h35-14h00 Pause déjeuner
14h00-15h00 Présentation de MARCIN DETYNIECKI, Head of Research and Development & Group Chief Data Scientist at AXA
15h00-15h45 Discussions + Pause
Session L’explicabilité au service de la médecine et de la chimie :
15h45-16h10 Fast Uncertainty Quantification for Deep Learning-based MR Brain Segmentation, Benjamin Lambert, Florence Forbes, Senan Doyle, Alan Tucholka and Michel Dojat
16h10-16h35 Génération d'explications contre-factuelles pour la chimie moléculaire, Jules Leguy, Bryan Garreau, Thomas Cauchy, Benoit Da Mota and Béatrice Duval
Session Système de Recommandation :
16h35-17h00 Vers un système de recommandation explicable pour l’orientation scolaire, Nicolas Hubert, Armelle Brun and Davy Monticolo
17h00-17h25 Vers l’amélioration des interactions entre utilisateurs et systèmes de recommandation, Jinfeng Zhong and Elsa Negre
17h25-18h00 Table ronde