En esta charla presentamos un método tipo quasi-Newton para la solución de sistemas de ecuaciones con restricciones y analizamos sus propiedades de convergencia. Este trabajo surge con la idea de desarrollar una estrategia quasi-Newton para el método LP-Newton propuesto por Facchinei, Fisher y Herrich en [1] y alcanzando una tasa de convergencia superlineal, mejorando el método anteriormente propuesto en [2].
Si bien pedimos que la función involucrada cumpla ciertas condiciones, tales como diferenciabilidad y lipchizianidad de su derivada, estos requerimientos son sólo necesarios por custiones teóricas. Por otro lado, el algoritmo propuesto permite encontrar soluciones que no necesariamente son localmente únicas. En este punto, el algoritmo presentado extiende el método de Newton clásico. Finalmente, mostramos algunos ejemplos numéricos.
[1] Facchinei F., Fisher A., Herrich M., An LP-Newton method: nonsmooth equations, KKT systems, and nonisolated solutions. Mathematical Programming 146.1-2, pp. 1-36 (2014).
[2] Martínez, M.D.L.Á., Fernández, D., A quasi-Newton modified LP-Newton method. Optimization Methods and Software, pp. 1–16 (2017).
En esta charla introduciremos un nuevo método de búsqueda de patrones para optimización con restricciones de cajas. El algoritmo propuesto emplea las direcciones coordenadas con una búsqueda lineal no monótona como criterio de aceptación del nuevo iterado. Se mostrará de que manera los resultados de convergencia global están fuertemente basados en la relación entre la longitud del paso y la medida de estacionariedad usada. Finalmente se mostrarán los resultados numéricos obtenidos y comparaciones con otras búsquedas lineales conocidas.
La Investigación Clínica (con seres humanos) necesita condiciones específicas para poder implementarse, el campo de las Neurociencias no es la excepción. Aquí presentaremos algunas aplicaciones de conceptos físico-matemáticos (derivada- matrices- entropía- complejidad- No-linealidad- deconvolucion-Anisotropia- Tensores) y procedimientos del procesamiento de datos al campo de la investigación en Neurociencias y la Asistencia Clínica , como así también obstáculos a resolver para mejorar la aplicabilidad de dichos conceptos a nuevos contextos de investigación y la potencialidad subyacente tanto en investigación como en la asistencia sanitaria si se logra fortalecer relación Universidad-Sociedad y el trabajo interdisciplinario.
Una caplet es una opción financiera cuyo subyacente es una tasa de interés. En este trabajo asumimos que la tasa de interés sigue un modelo Libor Market con volatilidad Gaussiano-cuadrática. Utilizando el teorema de Feynman-Kac el problema de valorar una caplet se puede transformar en resolver una ecuación diferencial en derivadas parciales. Aplicaremos el método ADI para obtener una solución numérica de la misma. Este método divide el problema original en dos subproblemas permitiendo reducir considerablemente el número de operaciones a realizar. El interés final de esta aplicación es valorar una caplet para luego obtener su volatilidad implícita a partir de la fórmula de Black Scholes, ya que ésta es un valor no observable en el mercado. Variando el strike de la caplet construiremos la sonrisa de volatilidad y se mostrarán las sensibilidades de la curva a los parámetros del modelo.
En esta charla se presentarán algunas de las ideas más importantes sobre las cuales construimos nuestro actual entendimiento de los sistemas complejos. Se hablará del problema de tener un gran número de grados de libertad, del rol de las interacciones y de los conceptos de orden y desorden. Luego se hablarán de las teorías de campo medio, de la importancia de las fluctuaciones estocásticas, de la emergencia de correlaciones y del papel que éstas juegan en la existencia de fenómenos críticos. Finalmente, si nos alcanza el tiempo, discutiremos cómo la estructura topológica de la red de interacciones afecta las propiedades de los fenómenos críticos.
Temas que se tratarán (brevemente):
Resumen: el análisis de componentes principales (PCA) suele entenderse desde el punto de vista de la estadística (generando variables no correlacionadas de varianza máxima) o desde el punto de vista del análisis numérico (descomposición en valores singulares). En esta oportunidad veremos el punto de vista de la optimización, donde se desea encontrar una variedad afín que minimice las distancias a los puntos dados.