28/10 14hs Aula 13 (Híbrido) - Juan Pablo Ruiz Nicolini (Fundar)
11/11 14hs Aula 13 - Facundo Larosa (indie)
SEMINARIOS ANTERIORES
En este seminario revisamos el marco de optimización dual para mercados de subasta, comenzando por su formulación matemática clásica y luego enfatizando la brecha entre el modelo y la realidad.
Destacamos las deficiencias del enfoque original: datos sesgados, la no estacionariedad del mercado, la retroalimentación tardía y las reacciones estratégicas de la competencia. A continuación, presentamos una perspectiva renovada: en lugar de modelos de probabilidad fija, utilizamos módulos parametrizados que aceptan residuos, dispersiones y actualizaciones secuenciales a nivel de segmento y usuario. Esto permite que la optimización reaccione dinámicamente a los cambios en los datos, manteniendo intacta la estructura dual.
El objetivo es mostrar a los estudiantes de matemáticas aplicadas que modelar el problema no es suficiente: es esencial comprender la distancia entre la teoría y la práctica, y se deben diseñar modelos robustos para incorporar correcciones rápidas basadas en datos sin perder el rigor matemático.
Exploraremos cómo el modelado matemático y la investigación operativa permiten optimizar procesos clave en la industria del Oil & Gas, con especial foco en los recursos no convencionales de Vaca Muerta y los desafíos en torno a su desarrollo. Revisaremos metodologías, infraestructuras y casos concretos de implementación, destacando el impacto real de estas herramientas en la toma de decisiones tanto en problemas estratégicos, tácticos y operativos.
Agustín es dueño de Nonlinear Tecnología.
A menudo, las señales obtenidas mediante experimentación contienen múltiples componentes físicamente significativos. A menudo, se quiere estudiar uno o más de estos componentes de forma aislada en la misma escala de tiempo que los datos originales. El análisis multiresolución se refiere a descomponer una señal en componentes, que producen la señal original exactamente cuando se suman nuevamente. Para ser útil en el análisis de datos, es importante cómo se descompone la señal. Los componentes idealmente descomponen la variabilidad de los datos en partes físicamente significativas e interpretables. El término análisis multiresolución a menudo se asocia con wavelets o paquetes de wavelets, pero también existen técnicas no basadas en wavelets que producen MRAs útiles.
En este seminario vamos a exponer un caso de estudio de series de locomoción recolectadas por Guzman et al (2016) y diferentes estimadores basados en MRA.
El hidrógeno verde es fundamental para la producción y almacenamiento de energía limpia. Más aún, ofrece un camino para alejarse de los combustibles fósiles y la posibilidad de una economía energética más sustentable. La electrólisis del agua es ideal para la producción de este tipo de hidrógeno a gran escala, ya que no produce ningún subproducto contaminante basado en carbono. Sin embargo, los electrocatalizadores requeridos actualmente para este proceso son metales nobles, lo cual dificulta su uso para aplicaciones industriales. Por ello, se hace necesario desarrollar electrocatalizadores abundantes en la tierra y de bajo costo. Por ejemplo, los basados en níquel. En este seminario se presentará un estudio, mediante simulaciones de Monte Carlo, sobre la adsorción y difusión de átomos de hidrógeno sobre superficies de níquel, describiendo los conceptos teóricos, algoritmos y variables aleatorias involucradas, además de los resultados gráficos de estos procedimientos y las posibles líneas de trabajo futuras.
Motivados por encontrar una caracterización a los multiplicadores de Lagrange en un punto factible para un problema general de control óptimo sobre espacios de dimensión infinita, estudiamos el Lagrangiano Aumentado aplicado a problemas de optimización con restricciones de igualdad y desigualdad en espacios de Hilbert. A partir de la reformulación del problema original, se introduce un problema auxiliar que permite analizar las condiciones de optimalidad de segundo orden. Se establece la validez de la condición de calificación de Robison para el problema auxiliar y se caracteriza el conjunto de multiplicadores asociados. Asimismo, se muestra la conexión entre las condiciones de segundo orden del problema original y las del problema auxiliar, lo que garantiza el crecimiento cuadrático del funcional.
En esta charla se presentará un modelo matemático de inspiración ecológica que estudia la dinámica colectiva de poblaciones en entornos con recursos limitados y variables. Utilizando un enfoque de simulación basada en agentes activos combinada con análisis matemático, se modela cómo individuos (agentes) adaptan su comportamiento en función de la distribución de recursos en un entorno bidimensional. El modelo propuesto revela la existencia de distintas fases dinámicas (extinción, desorden, orden), incluyendo la ruptura espontánea de simetría y la aparición de ondas viajeras y otros patrones espaciotemporales, típicos de sistemas fuera del equilibrio. Este enfoque vincula herramientas de materia activa, teoría de fases y modelado ecológico, y permite explorar mecanismos de autoorganización en sistemas biológicos complejos.
Automated Machine Learning (AutoML) es un campo relativamente nuevo de la investigación en inteligencia artificial (IA) que busca automatizar la aplicación de IA en problemas del mundo real, reduciendo así la necesidad de intervención humana y democratizando el acceso a estas tecnologías. En esta charla, presentaremos una visión general del panorama actual de AutoML, destacando los avances más significativos y las distintas metodologías que han surgido en los últimos años. Posteriormente, compartiremos algunas de las contribuciones que hemos realizado en el área, particularmente en contexto de síntesis y selección automática de pipelines de machine learning usando gramáticas libre de cotexto y aprendizaje por refuerzo. Finalmente, discutiremos el futuro del área, abordando las tendencias emergentes y los desafíos que aún se deben superar.
La charla abordará desafíos enfrentados en la elaboración del Mapa de Cobertura y Uso del Suelo de Córdoba, incluyendo la detección de cambios espectrales, clasificación supervisada de imágenes satelitales y representación de fenómenos como incendios o sequías. Además, se presentarán experiencias en la aplicación de técnicas de aprendizaje automático y estadística espacial para actualizar valuaciones fiscales y mejorar la equidad tributaria en el territorio provincial.
En esta charla nos adentraremos en la complejidad que enfrenta ShipHero al desarrollar e implementar su Sistema de Gestión de Almacenes (WMS). Construir un WMS que no solo administre, sino que optimice inteligentemente las operaciones de e-commerce y logística a gran escala, implica superar retos significativos. Estos incluyen desde el diseño de arquitecturas de software escalables y el procesamiento de enormes volúmenes de datos en tiempo real, hasta la creación de algoritmos flexibles que se adapten a la variabilidad de los clientes y la dinámica constante de los inventarios. El objetivo es ofrecer una plataforma que transforme la gestión de almacenes en un motor de eficiencia y precisión.
En este contexto, la optimización minuciosa de cada proceso interno del warehouse —como el picking (minimizando rutas y tiempos de recolección), el packing (seleccionando embalajes óptimos y consolidando pedidos), el replenishment (asegurando la disponibilidad de stock en ubicaciones estratégicas) y el receiving (agilizando la recepción y el control de calidad)— se vuelve crítica. Cada una de estas etapas representa un conjunto de problemas de optimización (a menudo combinatorios y NP-completos) cuya resolución impacta directamente en la reducción de costos operativos, el aumento de la capacidad de procesamiento de pedidos, la minimización de errores y, en última instancia, la satisfacción del cliente. Para ShipHero, la aplicación de modelos matemáticos y enfoques algorítmicos avanzados es fundamental para desbloquear el máximo potencial de cada warehouse y ofrecer una ventaja competitiva en un sector logístico cada vez más exigente.
En esta presentación haremos un recorrido por diversos proyectos incubados y desarrollados en el equipo de investigación y desarrollo (I+D) en Banco Galicia. Desde 2022, el equipo ha trabajado en innovación y testeo, haciendo foco en modelos disruptivos, nuevas formas de datos y casos de negocio especiales, siempre con el objetivo de entregar valor con un impacto integrado en la organización.
La mayoría de tales proyectos pueden agruparse en 3 programas bien definidos: Grafos, GIS (información georreferenciada) e IA Generativa. Presentaremos algunos de estos proyectos y las necesidades, dolores o problemas subyacentes que pretenden resolver.
Estamos tratando de conseguir las slides, pero Pablo nos compartió 3 charlas que Galicia ha dado sobre algunos de los temas que se trataron.
LINKS
Agro e Imágenes Satelitales: https://youtu.be/rlk1BVJJrpc?si=PT8ttjer_eJOLv5E
GraphSage para detectar credenciales vulneradas: https://youtu.be/L98KqUYB9c8?si=UdIAZTacW-egohSn
En esta charla voy a contarles mis encuentros y desencuentros con la matemática. Les contaré también algunas de las aplicaciones y utilidades con las que me encontré gracias a ella. Veremos cómo se entrelazan en este camino las Imágenes, la matemática, la estadística y la inteligencia artificial. Espero se diviertan y empaticen con algunas.
Este seminario se dio sin luz, pero Valeria nos facilitó las slides que iba a usar.