Cette semaine, votre TA en chef, Samuel Lavoie, vous fera découvrir les modèles génératifs basés sur la diffusion.
Slides:
References: Les liens sont disponibles dans les diapositives.
Dans ce cours, nous discuterons des réseaux antagonistes (adversariels) génératifs (GAN). Les GAN sont un paradigme de modèle génératif récent et très populaire. Nous aborderons le formalisme GAN, quelques considérations théoriques et pratiques.
Slides:
Reference: (* = you are responsible for this material)
*Sections 20.10.4 of the Deep Learning textbook.
*Generative Adversarial Networks by Ian Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio (NIPS 2014).
*f-GAN: Training Generative Neural Samplers using Variational Divergence Minimization by Sebastian Nowozin, Botond Cseke and Ryota Tomioka (NIPS 2016).
NIPS 2016 Tutorial: Generative Adversarial Networks by Ian Goodfellow, arXiv:1701.00160v1, 2016
Adversarially Learned Inference by Vincent Dumoulin , Ishmael Belghazi , Ben Poole, Olivier Mastropietro, Alex Lamb, Martin Arjovsky and Aaron Courville (ICLR 2017).
Many others refs in the slides.
Dans ce cours, nous discuterons d'une famille de modèles de variables latentes connue sous le nom d'auto-encodeurs variationnels (VAE). Nous verrons comment un modèle gaussien latent profond peut être vu comme un auto-encodeur via une inférence variationnelle amortie, et comment un tel auto-encodeur peut être utilisé comme modèle génératif. À la fin, nous verrons des variantes de VAE et différentes façons d'améliorer l'inférence.
Slides:
Reference: (* = you are responsible for this material)
*Chapter 20.10.3 of the Deep Learning textbook.
*Chapter 2 of An Introduction to Variational Autoencoders by Kingma and Welling
Inference Suboptimality in Variational Autoencoders by Chris Cremer (ICML 2018)
Importance Weighted Autoencoders by Yuri Burda (ICLR 2016)
Variational Inference, lecture note by David Blei. Section 1-6.
Blog post Variational Autoencoder Explained by Goker Erdogan
Blog post Families of Generative Models by Andre Cianflone
Dans ce cours, nous aurons un cours accéléré sur la normalisation des flux et verrons comment ils peuvent être utilisés comme modèle génératif en inversant la transformation de la distribution des données en une distribution a priori.
Slides: Normalizing Flows
Reference: (* = you are responsible for this material)
*Chapter 20.10.2 of the Deep Learning textbook.
*Chapter 1-2 (for the core idea) and Chapter 6 (for applications) Normalizing Flows for Probabilistic Modeling and Inference by George Papamakarios and friends.
Dans ces cours, nous discuterons de l'apprentissage auto-supervisé. Nous discuterons de la manière de créer une représentation au-delà du paradigme de la pré-formation supervisée, et nous verrons comment des tâches de prétexte efficaces peuvent être conçues et comment s'entraîner avec des objectifs contrastés.
Slides:
Reference:
Doersch, Carl, Abhinav Gupta, and Alexei A. Efros. "Unsupervised visual representation learning by context prediction." CVPR (2015).
Gidaris, Spyros, Praveer Singh, and Nikos Komodakis. "Unsupervised representation learning by predicting image rotations." ICLR (2018).
Wu, Zhirong, et al. "Unsupervised feature learning via non-parametric instance discrimination." CVPR (2018).
He, Kaiming, et al. "Momentum contrast for unsupervised visual representation learning." CVPR (2020).
Chen, Ting, et al. "Big self-supervised models are strong semi-supervised learners." (2020).
Grill, Jean-Bastien, et al. "Bootstrap your own latent: A new approach to self-supervised learning." NeurIPS (2020).
Dans ce cours, nous serons initiés à l’apprentissage par renforcement.
Slides:
RL -- jusqu'à la diapositive 38, "Monte-Carlo Policy Gradient (REINFORCE)"
Dans ce cours, nous examinerons l'auto-attention et le modèle du transformateur. Nous verrons comment ils fonctionnent, les approfondirons, verrons leurs analyses et leurs performances, et leurs applications principalement dans le traitement du langage naturel. Nous verrons comment certains modèles de langage, basés sur l'architecture des transformateurs, ont dépassé les performances humaines sur certaines tâches de compréhension du langage, et nous discuterons également de leurs lacunes.
Slides:
Self-Attention and Transformer (slides par Arian Hosseini et Aaron Courville).
LoRA par A. Hosseini (et d'autres).
Reference: (plus the works mentioned in the slides)
Dans ce cours, nous présentons les réseaux neuronaux récurrents et les modèles associés.
cours RNNs (slides de Hugo Larochelle)
Reference: (* = you are responsible for this material)
*Chapter 10 of the Deep Learning textbook (sections. 10.1-10.11, we will cover the material in 10.12 later).
Blog post on Understanding LSTM Networks by Chris Olah.
Dans ces cours, nous aurons une discussion assez détaillée des méthodes de régularisation et de leur interprétation.
Slides:
Reference: (* = you are responsible for this material)
*Chapter 7 of the Deep Learning textbook.
Understanding deep learning requires rethinking generalization (ICLR 2017) par Chiyuan Zhang, Samy Bengio, Moritz Hardt, Benjamin Recht, Oriol Vinyals
Dans ce cours, nous discuterons des méthodes d'optimisation de premier ordre populaires et pratiques. Nous n'en discuterons pas, mais je fournis des diapositives pour certaines méthodes de second ordre et leur interprétation.
Slides:
Optimization I: First-Order Methods (et méthodes de normalisation)
Optimization II: Second-Order Methods (optional)
Reference: (* = vous êtes responsable de ce matériel)
*Chapter 8 of the Deep Learning textbook.
Why Momentum Really Works. Gabriel Goh, Distill 2017.
Ce cours est un tutoriel d'introduction sur PyTorch par Philippe Martin. Nous vous encourageons à suivre Colab.
Un notebook Colab pour le tutoriel est disponible sur le lien suivant :
https://colab.research.google.com/drive/1Yt5Oyujw-l_F1EI96BiUL55490VPAdJG?usp=sharing
Nous couvrons:
la classe torch.Tensor, et les attributs et opérations importants
différenciation automatique dans pytorch
modules torch.nn et torch.optim
former les MLP et les ConvNets sur le MNIST
Dans ce cours, nous terminons notre discussion sur l'appentissage des réseaux de neurones et nous introduisons les réseaux de neurones convolutifs.
Cours CNNs (diapositives modifiées à partir des notes de cours d'Hugo Larochelle)
Backprop in CNNs (Slides de Hiroshi Kuwajima’s Memo on Backpropagation in Convolutional Neural Networks.) -- nous n'en parlerons pas en classe, mais elles sont obligatoires et vous en êtes responsable. (pourrait être sur les devoirs et l'examen)
Reference: (* = you are responsible for all of this material)
*Chapter 9 of the Deep Learning textbook, Sections 9.10 and 9.11 are optional.
Andrej Karpathy’s excellent tutorial on CNNs.
Paper on convolution arithmetic by Vincent Dumoulin and Francesco Visin.
WaveNet Blog presenting dilated convolutions animation and samples.
Blog on Deconvolution and Checkerboard Artifacts by Augustus Odena, Vincent Dumoulin and Chris Olah.
Dans ces cours, nous poursuivons notre introduction aux réseaux de neurones et nous discuterons de la façon d'entraîner des réseaux de neurones : c'est-à-dire l'algorithme de rétropropagation (Backpropagation Algorithm)
Lecture 02 training NNs (diapositives construites sur les diapositives d'Hugo Larochelle)
Référence: (vous êtes responsable de tout ce matériel)
Chapitres 6 du manuel Deep Learning (par Ian Goodfellow, Yoshua Bengio et Aaron Courville).
Machine learning problems (Delayed: slides from Hugo Larochelle's CIFAR DLSS 2019 lectures)
Nous discutons du plan de cours et de la méthode pédagogique choisie. Dans ce cours, nous commencerons également notre introduction détaillée aux réseaux de neurones.
Cours 01 neurones artificiels (diapositives construites sur les diapositives d'Hugo Larochelle)
Référence: (vous êtes responsable de tout ce matériel)
Chapitres 6 du manuel Deep Learning (par Ian Goodfellow, Yoshua Bengio et Aaron Courville).
Le premier cours est le 8 janvier 2025. Aperçu de certains documents de base, couvrant l'algèbre linéaire, le calcul et les bases de l'apprentissage automatique.
Cours 00 slides (diapositives construites sur les diapositives d'Hugo Larochelle)
Référence: (vous êtes responsable de tout ce matériel)
Chapitres 1 à 5 du manuel Deep Learning (par Ian Goodfellow, Yoshua Bengio et Aaron Courville).