Programme

  • 9h00-9h15 Ouverture de l’atelier

  • 9h15-10h15 Présentation de MARCO PANZA, Directeur de Recherche, CNRS, IHPST (CNRS et Univ. Paris 1) & Chapman University.

  • 10h15-10h15 Pause


Session Philosophie, terminologie et raisonnement :


  • 10h30-10h55 Esquisses philosophiques autour de la compréhension de phénomènes complexes avec des outils de prédiction basés sur de l’apprentissage machine, Christophe Denis

  • 10h55-11h20 Une terminologie pour une IA explicable contextualisée, Matthieu Bellucci, Nicolas Delestre, Nicolas Malandain and Cecilia Zanni-Merk

  • 11h20-11h45 Explications analogiques, Henri Prade and Gilles Richard


Session Sélection de variables et Times Series :


  • 11h45-12h10 Influence d’un process de sélection de variables sur le profil d’explicabilité d’un modèle d’apprentissage machine généré par autoML: une étude préliminaire, Haomiao Wang, Julien Aligon and Paul Monsarrat, Chantal Soulé-Dupuy, Philippe Kemoun, Emmanuel Doumard

  • 12h10-12h35 The Road to Effective Temporal Explainability, Michele Linardi and Vassilis Christophides


  • 12h35-14h00 Pause déjeuner

  • 14h00-15h00 Présentation de MARCIN DETYNIECKI, Head of Research and Development & Group Chief Data Scientist at AXA

  • 15h00-15h45 Discussions + Pause


Session L’explicabilité au service de la médecine et de la chimie :


  • 15h45-16h10 Fast Uncertainty Quantification for Deep Learning-based MR Brain Segmentation, Benjamin Lambert, Florence Forbes, Senan Doyle, Alan Tucholka and Michel Dojat

  • 16h10-16h35 Génération d'explications contre-factuelles pour la chimie moléculaire, Jules Leguy, Bryan Garreau, Thomas Cauchy, Benoit Da Mota and Béatrice Duval


Session Système de Recommandation :


  • 16h35-17h00 Vers un système de recommandation explicable pour l’orientation scolaire, Nicolas Hubert, Armelle Brun and Davy Monticolo

  • 17h00-17h25 Vers l’amélioration des interactions entre utilisateurs et systèmes de recommandation, Jinfeng Zhong and Elsa Negre


  • 17h25-18h00 Table ronde