Grupo de leitura em teoria do aprendizado


O que é? Como acessar?

Grupo por convite com encontros virtuais toda terça-feira das 13h30 às 14h45 e toda quinta-feiradas 14h às 15h15.
Se você não foi convidado, provavelmente é porque não queremos sua presença. ¯\_(ツ)_/¯

Link para as reuniões de terça: https://meet.google.com/eua-amyt-guc

Link para as reuniões de quinta: https://meet.google.com/sva-payu-hno

Notas das apresentações: clique aqui (para acessar, você precisa estar na lista de usuários válidos)

Referências bibliográficas:

Seguiremos o esboço de livro de Francis Bach, Learning Theory from First Principles.

Artigos para serem apresentados

  1. [Lucas] On the Multiple Descent of Minimum-Norm Interpolants and Restricted Lower Isometry of Kernels. Tengyuan Liang, Alexander Rakhlin, Xiyu Zhai. https://arxiv.org/abs/1908.10292

  2. Benign overfitting in linear regression. Peter Bartlett et al. https://arxiv.org/abs/1906.11300

  3. [Zoraida] Robust estimators in high-dimensions without the computational intractability . Diakonikolas et al. SIAM Journal on Computing (2019)

  4. [Deborah] Noah Golowich, Sarath Pattathil, Constantinos Daskalakis: Tight last-iterate convergence rates for no-regret learning in multi-player games.
    In the 34th Annual Conference on Neural Information Processing Systems (NeurIPS),
    NeurIPS 2020. arXiv

  5. [Daniel] A. Bietti, F. Bach. Deep Equals Shallow for ReLU Networks in Kernel Regimes. https://arxiv.org/pdf/2009.14397.pdf

  6. [Thiago] Jacot et al. Neural Tangent Kernel: Convergence and Generalization in Neural Networks. https://arxiv.org/abs/1806.07572

  7. [Enzo] Implicit Regularization in Tensor Factorization. https://arxiv.org/abs/2102.09972

  8. [Adriana] A Convergence Analysis of Gradient Descent for Deep Linear Neural Networks (Sanjeev Arora, Nadav Cohen, Noah Golowich and Wei Hu. https://openreview.net/pdf?id=SkMQg3C5K7

  9. Selective Inference for Hierarchical Clustering. https://arxiv.org/pdf/2012.02936.pdf

Lista de encontros

[15/04/2021 - Roberto] Apresentação, divisão de tarefas, introdução.

[20/04/2021 - Zoraida] Seções 3.1 a 3.5 (fixed design least squares)

[22/04/2021 - Lucas Resende] Seções 3.6 a 3.8 (least squares: ridge, random design and adaptativity).

[27/04/2021 - Adriana] Seções 4.1 a 4.4 (empirical risk minimization: decomposition, approximation and estimation errors, convexification).

[29/04/2021 - Daniel] Seções 4.5 e 4.6 (Rademacher complexities, relationship with asymptotic statistics)

[04/05/2021 - Thiago] Seções 5.1 e 5.2 (optimization in ML, gradient descent)

[06/05/2021 - Deborah] Seções 5.3 e 5.4 (optimization in nonsmooth problems, rates of convergence)

[11/05/2021 - Enzo] Seções 6.1 e 6.2 (local averaging methods)

[13/05/2021 - Paulo] Seções 6.3 a 6.5 (consistency, adaptativity)

[18/05/2021 - Zoraida] Seções 7.1 a 7.5 (kernel methods)

[25/05/2021 - Lucas Resende] Seção 7.6 (analysis of ridge)

[27/05/2021 - Adriana] Seções 8.1 e 8.2 (sparsity)

[01/06/2021 - Daniel] Seção 8.3 (conditions for fast rates)

[08/06/2021 - Thiago] Capítulo 9

[10/06/2021 - Paulo ] Capítulo 10

[15/06/2021 - Enzo] Seção 11.1 (statistical lower bounds)

[17/06/2021 - Deborah] Seções 11.2 e 11.3 (optimization lower bounds)