Palestras Dia da Otimização

13 de março de 2024

Mauricio Louzeiro - Universidade Federal de Goiás

Horário: 10:00 - 11:00

An Adaptive Cubic Regularization quasi-Newton Method on Riemannian Manifolds 

Resumo: A quasi-Newton method with cubic regularization is designed for solving Riemannian unconstrained nonconvex optimization problems. The proposed algorithm is fully adaptive with at most O(ϵ^(−3/2)) iterations to achieve a gradient smaller than ϵg for given ϵg, and at most O(max{ϵ^(− 3/2), ϵ^(−3) H}) iterations to reach a second-order stationary point respectively. Notably, the proposed algorithm remains applicable even in cases of the gradient and Hessian of the objective function unknown. Numerical experiments are performed with gradient and Hessian being approximated by forward finite-differences to illustrate the theoretical results and numerical comparison. 

Vitaliano Amaral - Universidade Federal do Piauí

Horário: 11:00 - 12:00

Sobre complexidade e convergência dos métodos de descenso coordenado por blocos

Resumo: Os métodos de descenso coordenado por blocos têm um impacto considerável na otimização global, pois a minimização global (ou, pelo menos, quase global) é acessível para problemas de baixa dimensão. Em cada iteração de um método de descenso coordenado por blocos, minimiza-se uma aproximação da função objetivo em relação a um conjunto geralmente pequeno de variáveis. A convergência e complexidade têm sido estudadas em trabalhos recentes. Nesta palestra, faremos a introdução dos métodos de descenso coordenado por blocos e comentaremos dois trabalhos recentes que estudaram a convergência e complexidade desses métodos.

Raul Tintaya - Centro de Modelamiento Matemático (CMM), Universidad de Chile

Horário: 14:00 - 15:30

Dinâmica Contínua tipo Gradiente para a Classe de Funções Quasiconvexas

Resumo: Na palestra, iremos explorar a caracterização de funções quasiconvexas e fortemente quasiconvexas diferenciáveis. Ao expandir a caracterização proposta por Arrow e Enthoven em 1961, discutiremos novas propriedades  de monotonicidade para o gradiente dessa classe de funções. Além disso, faremos uma análise dos sistemas dinâmicos de descenso do gradiente de primeira e segunda ordem, sem depender da hipótese usual de continuidade de Lipschitz no gradiente. Por fim, monstraremos que as discretizações implícitas desses sistemas nos conduzem aos métodos de Gradiente e de Polyak, respectivamente, herdando as propriedades do caso contínuo.

Pedro Bonfim de Assunção Filho - Instituto Federal de Goiás

Horário: 16:00 - 17:00

Conditional gradient method for multiobjective optimization 

Resumo: In this talk, we analyze the conditional gradient method, also known as Frank-Wolfe method, for constrained multiobjective optimization. The constraint set is assumed to be convex and compact, and the objective functions are assumed to be continuously differentiable. The method is considered with different strategies for obtaining the step size. Asymptotic convergence properties and iteration complexity assumptions on the objective functions are established. Numerical experiments are provided to illustrate the effectiveness of the method and certify the obtained theoretical results.