Grupo de leitura em teoria do aprendizado
O que é? Como acessar?
O que é? Como acessar?
Grupo por convite com encontros virtuais toda terça-feira das 13h30 às 14h45 e toda quinta-feiradas 14h às 15h15.
Se você não foi convidado, provavelmente é porque não queremos sua presença. ¯\_(ツ)_/¯
Link para as reuniões de terça: https://meet.google.com/eua-amyt-guc
Link para as reuniões de quinta: https://meet.google.com/sva-payu-hno
Notas das apresentações: clique aqui (para acessar, você precisa estar na lista de usuários válidos)
Referências bibliográficas:
Seguiremos o esboço de livro de Francis Bach, Learning Theory from First Principles.
Artigos para serem apresentados
[Lucas] On the Multiple Descent of Minimum-Norm Interpolants and Restricted Lower Isometry of Kernels. Tengyuan Liang, Alexander Rakhlin, Xiyu Zhai. https://arxiv.org/abs/1908.10292
Benign overfitting in linear regression. Peter Bartlett et al. https://arxiv.org/abs/1906.11300
[Zoraida] Robust estimators in high-dimensions without the computational intractability . Diakonikolas et al. SIAM Journal on Computing (2019)
[Deborah] Noah Golowich, Sarath Pattathil, Constantinos Daskalakis: Tight last-iterate convergence rates for no-regret learning in multi-player games.
In the 34th Annual Conference on Neural Information Processing Systems (NeurIPS), NeurIPS 2020. arXiv[Daniel] A. Bietti, F. Bach. Deep Equals Shallow for ReLU Networks in Kernel Regimes. https://arxiv.org/pdf/2009.14397.pdf
[Thiago] Jacot et al. Neural Tangent Kernel: Convergence and Generalization in Neural Networks. https://arxiv.org/abs/1806.07572
[Enzo] Implicit Regularization in Tensor Factorization. https://arxiv.org/abs/2102.09972
[Adriana] A Convergence Analysis of Gradient Descent for Deep Linear Neural Networks (Sanjeev Arora, Nadav Cohen, Noah Golowich and Wei Hu. https://openreview.net/pdf?id=SkMQg3C5K7
Selective Inference for Hierarchical Clustering. https://arxiv.org/pdf/2012.02936.pdf
Lista de encontros
[15/04/2021 - Roberto] Apresentação, divisão de tarefas, introdução.
[20/04/2021 - Zoraida] Seções 3.1 a 3.5 (fixed design least squares)
[22/04/2021 - Lucas Resende] Seções 3.6 a 3.8 (least squares: ridge, random design and adaptativity).
[27/04/2021 - Adriana] Seções 4.1 a 4.4 (empirical risk minimization: decomposition, approximation and estimation errors, convexification).
[29/04/2021 - Daniel] Seções 4.5 e 4.6 (Rademacher complexities, relationship with asymptotic statistics)
[04/05/2021 - Thiago] Seções 5.1 e 5.2 (optimization in ML, gradient descent)
[06/05/2021 - Deborah] Seções 5.3 e 5.4 (optimization in nonsmooth problems, rates of convergence)
[11/05/2021 - Enzo] Seções 6.1 e 6.2 (local averaging methods)
[13/05/2021 - Paulo] Seções 6.3 a 6.5 (consistency, adaptativity)
[18/05/2021 - Zoraida] Seções 7.1 a 7.5 (kernel methods)
[25/05/2021 - Lucas Resende] Seção 7.6 (analysis of ridge)
[27/05/2021 - Adriana] Seções 8.1 e 8.2 (sparsity)
[01/06/2021 - Daniel] Seção 8.3 (conditions for fast rates)
[08/06/2021 - Thiago] Capítulo 9
[10/06/2021 - Paulo ] Capítulo 10
[15/06/2021 - Enzo] Seção 11.1 (statistical lower bounds)
[17/06/2021 - Deborah] Seções 11.2 e 11.3 (optimization lower bounds)