Coloquio Matemático

Universidad de Guadalajara

Departamento de Matemáticas

CUCEI

Este coloquio es un espacio dedicado a la divulgación de las ciencias matemáticas desde todas sus áreas de desarrollo.

Es un punto de reunión para todas aquellas personas que gustan de conversar y hacer matemáticas.

Coloquio 2022!!

Miércoles 15 de Junio 2022

Horario: 5:00 pm (hora del centro de México).

Enlace a la videollamada: https://meet.google.com/gyd-jbuz-rnk

Aprendizaje profundo usando derivadas de Fréchet: Primicias del problema geofísico de reconstruir el campo de densidades de un tipo de subsuelo

Dr. Fabricio Otoniel Pérez Pérez

CUCEI


En el contexto de la inteligencia artificial, el aprendizaje supervisado es una técnica en donde se busca construir un mapeo a través de un conjunto de ejemplos conocidos. Matemáticamente, ésto se puede plantear así: Dado un conjunto finito T = {ti = (xi,yi) | xi → yi}, encontrar una función f que satisfaga f(xi) = yi para cada ti ∈ T . Tal construcción se puede hacer con una red neuronal NN que se entrena con T . Debido a que NN se compone de pesos y sesgos (W, b), el entrenamiento de NN no es otra cosa más que la optimización de (W, b) sujeta a T. Esto se puede lograr al minimizar un funcional de costo C que depende de (W, b), tarea que popularmente se suele realizar con el método de gradiente descendente estocástico (SGD) y la estrategia de backpropagation. En ésta plática se expone cómo la derivada de Fréchet de C nos conduce al gradiente exacto de C. Se reporta el uso de ésta herramienta teórica en dos contextos: 1) Para un problema básico de clasificación en dos dimensiones, 2) Para el problema geofísico de reconstruir el campo escalar de densidades en un subsuelo tridimensional. Se manifiesta que el entrenamiento de una red neuronal depende mucho de su diseño (grado de conectividad, funciones de activación, número de capas, número de neuronas por capa) y de sus meta-pará- metros (tasa de aprendizaje, número de iteraciones, tamaño de mini-batch).