Cronograma y abstracts

Cronograma

10.00 hs - Facundo Mémoli - La persistencia homológica de espacios métricos y su estabilidad.

11.00 hs - Café

11.30 hs - José Perea - Cohomología persistente y coordenadas toroidales.

12.30 hs - Almuerzo

14.30 hs - Liliana Forzani - Regresión desde el punto de vista de regresión inversa.

15.30 hs - Enrique Mallada - Reinforcement learning with almost sure constraints.

Abstracts

Facundo Memoli

Título: La persistencia homológica de espacios métricos y su estabilidad.

Resumen: A través de ideas topológicas, dado un 'dataset' X ( modelado como un espacio métrico finito), la Homologia Persistente consiste en inducir a partir de X un diagrama de espacios vectoriales indexado por la recta real. Estos diagramas usualmente reciben el nombre de espacios vectoriales persistentes. La clasificación de estos objetos bajo isomorfismos produce los diagramas de persistencia: una representación compacta del nacimiento y destrucción de clases de homología a medida que el parámetro real se incrementa. Este procedimiento, que es análogo al clustering jerárquico, resulta ser estable en un sentido preciso: perturbaciones del espacio métrico (en la metric de Gromov-Hausdorff) producen cambios acotados en el diagrama de persistencia. Esta charla describirá estas construcciones y resultados.

Jose Perea

Título: Cohomología persistente y coordenadas toroidales.

Resumen: La reducción de dimensionalidad es el problema de aprendizaje automático en el cual se toma un conjunto de datos con elementos descritos por potencialmente muchas coordenadas (por ejemplo, los pixeles de una imagen) y se calculan representaciones que son lo más económicamente posibles. En esta charla, presentaré un marco teórico y computacional para utilizar la estructura topológica de los datos (medida a través de la cohomología persistente) y construir coordenadas en el toro n-dimencional, respetando fielmente la topología subyacente a los datos ..

Liliana Forzani

Título: Regresión desde el punto de vista de regresión inversa.

Resumen: Cuando se quiere estudiar como se comporta una variable aleatoria (respuesta o Y) en función de un vector de variables aleatorias (predictores o Xs) el modelo más conocido y estudiado es el modelo lineal. Una propiedad deseada en las estimaciones de los parámetros del modelo es que sean consistentes, es decir que cuando la cantidad de observaciones tiende a infinito las estimadores tienden a los parámetros verdaderos. Cuando el número de predictores aumenta, es decir, contamos con más información por observación, el estimador de mínimos cuadrados es inestable e incluso no definido. En los últimos años los estimadores usados en estos casos fueron los conocidos como estimadores ralos, los cuales asumen que a pesar de tener información de más predictores, sólo hay un número fijo de ellos que contribuyen a la explicación de la variabilidad de Y. Sin embargo esta suposición no es cierta en muchas regresiones donde cada predictor agregado tiene alguna información de Y.

Introduciré en esta charla el concepto de regresión abundante y presentaré estimadores que dan consistencia en la predicción cuando el número de predictores crece. Estos estimadores están basados en regresión inversa que es un concepto familiar en la literatura de reducción suficiente de dimensiones.

Enrique Mallada

Título: Reinforcement learning with almost sure constraints.

Resumen: In this work, we study how to tackle decision-making for safety-critical systems under uncertainty. To that end, we formulate a Reinforcement Learning problem with Almost Sure constraints, in which one seeks a policy that allows no more than $\Delta\in\mathbb{N}$ unsafe events in any trajectory, with probability one. We argue that this type of constraint might be better suited for safety-critical systems as opposed to the usual average constraint employed in Constrained Markov Decision Processes and that, moreover, having constraints of this kind makes feasible policies much easier to find. The talk is didactically split into two parts, first considering $\Delta=0$ and then the $\Delta\geq 0$ case. At the core of our theory is a barrier-based decomposition of the Q-function that decouples the problems of optimality and feasibility and allows them to be learned either independently or in conjunction. We develop an algorithm for characterizing the set of all feasible policies that provably converges in expected finite time. We further develop sample-complexity bounds for learning this set with high probability. Simulations corroborate our theoretical findings and showcase how our algorithm can be wrapped around other learning algorithms to hasten the search for first feasible and then optimal policies.