Le TP du 9 janvier est ici : https://github.com/qrebjock/fanok
Le sujet de controle de l'année dernière est ici !
Des ressources intéressantes, surtout pour les codes sont fournies par Szymon Bobek (SBK)
Introduction et les datasets adult et jigsaw (code Python)
Modèle interprétable par construction 1 et Modèle interprétable par construction 2 (code Python)
Modèles surrogates globaux (code Python)
LIME et Shapley Values 1 et partie 2 (codes Python)
Explications contrefactuelles (code Python)
Evaluation de l'explicabilité (code Python)
Explicabilité des Réseaux de Neurones (codes Python)
Travaux Dirigés :
Première feuille d'exercices
Deuxième feuille d'exercices
Un TP sur la technique des knockoff
Un TP sur les conterfactual explanations
Troisième feuille d'exercices
Autre ressources générales
Le cours de Harvard (sans codes) sont ici et les videos associées sur l'XAI sont ici, ici et ici.
Une bonne perspective historique est ici. Des vidéos très illustratives sont également ici (pour un survey exhaustif).
L'XAI pour le Deep Learning est bien documenté ici. Concernant l'XAI pour la santé, la médecine et la biologie, une vidéo très intéressante est ici et un survey est ici.
Un survey excellent avec beaucoup d'exemples sur des problèmes en santé est ici.
Références spécifiques:
Méthodes intrinsèquement explicables
Concernant les risk-scores, un algorithme intéressant est ici et le code R est ici.
Pour contrôler le FDR pour la sélection des variables explicantes, la méthode des knock-off filters est bien décrite ici et le code est ici
Concernant les Interpretable Prototypes
Une adaptation de l'idée de prototype au cas des Neural Networks est décrite dans l'article ici dont le code python associé est ici et les données sont ici.
Des transparents très illustratifs sont ici.
Analyse Post-Hoc:
L'approche LIME est bien décrite ici (régression) et ici (données textuelles) et ici (données tabulaires). Les codes sont ici.
L'approche par les indices de Shapley est trouvable ici et un code est décrit ici et ici (données textuelles). Un tutorial sur SHAP très bien fait est ici.
L'analyse post-hop pour les réseaux de neurones est assez bien mise en valeur dans le document ici
Un cours très bien fait de l'Université de Harvard est ici. Une libraire tout aussi bien faite est ici.
Projets pour ce cours:
SHAPLEY Values : Projet 1
Counterfactuals pour données tabulaires : Projet 2
Grad Cam pour analyse d'images : Projet 3
Interpretation de BERT : Projet 4
Layerwise Relevance Propagation pour l'analyse d'image (demo) : Projet 5 et (si le coeur vous en dit !) pour réseaux de neurones graphiques Projet 6
Consignes:
Le travail à effectuer pour le projet est de refaire les 6 Projets ci-dessus sur des données différentes pour vous approprier les codes et les méthodes et
faire un rapport qui décrive pour chaque méthode les principes de son fonctionnement et les résultats sur les données testées (la méthode produit-elle bien une interprétation, une explication de la prédiction mise en oeuvre pour la donnée qui nous intéresse ?)