An introduction to linear and nonlinear parameter estimation
Segmentación de imagen médica mediante técnicas de Deep Learning
Optimización de entornos software para Inteligencia Artificial
Aplicaciones de la optimización cuántica y el quantum machine learning
Optimización y control de procesos
Semantic Interoperability through decentralised Knowledge Graphs
Mejora del aprendizaje profundo mediante la explotación de imágenes sintéticas
7 de marzo de 10:00 a 14:00 horas (seminario)
7 de marzo de 16:00 a 18:00 horas (reuniones con doctorandos en instalaciones experimentales)
8 de marzo de 10:00 a 14:00 horas (seminario)
Resumen:
This set of lectures introduce various concepts that are useful in the derivation of mathematical models of dynamic systems. The models usually consist of sets of (non)linear differential (or difference) equations, which contain unknown parameters whose values have to be inferred from experimental data. The most common approach to parameter identification is based on the minimization of the distance between the model prediction and the measured data but other approaches exploit the structure of the system to infer parameter estimates.
This course will take place over two days and the topics will be roughly divided as follows:
Day 1
a) Distance(s) between model prediction and data
b) parametric sensitivity analysis
c) identifiability and the Fisher Information Matrix
d) design of experiments
e) validation and cross-validation
f) linear and nonlinear least squares
g) maximum likelihood estimation
h) worked examples in Matlab
Day 2
a) subspace identification
b) sparse identification
c) worked examples in Matlab
Modalidad: Seminario (presencial)
Resumen:
La segmentación de imágenes médicas es un campo crucial en la investigación y el diagnóstico médico. El uso de técnicas de Deep Learning ha revolucionado esta área al proporcionar herramientas capaces de extraer características de las mismas con precisión y, a la vez, automatizar el proceso. Una correcta segmentación resulta crucial para poder realizar un tratamiento o un diagnóstico adecuado.
El Deep Learning se basa en redes neuronales profundas, que son capaces de aprender características complejas y representaciones abstractas a partir de grandes conjuntos de datos. Estas redes se entrenan utilizando algoritmos de aprendizaje automático para reconocer y clasificar diferentes regiones de interés en las imágenes.
En este seminario aprenderás técnicas de segmentación de imágenes basadas en Deep Learning, y las compararás con las técnicas tradicionales. Además, se presentarán los formatos de imágenes más frecuentemente utilizados en el campo médico, diferenciándolos de otros formatos de imágenes más comunes. Al terminar, serás capaz de crear una red neuronal profunda desde cero, importar imágenes médicas de diferente formato a un formato común, y utilizarlas de forma adecuada para entrenar tu propio modelo capaz de realizar segmentación de órganos.
Es recomendable que quienes participen en el seminario tengan conocimientos de programación, ya que se realizará utilizando Python, notebooks de Jupyter, y Keras.
Modalidad: Seminario (presencial)
Resumen:
El actual auge de la Inteligencia Artificial (IA) basada en redes neuronales profundas (RNPs), también conocida como deep learning (DL), se debe a la disponibilidad de una ingente cantidad de datos con los que entrenar estas redes (big data), el desarrollo de nuevos algoritmos (transformers, que son la base de modelos como ChatGPT), el diseño de aceleradores hardware (procesadores manycore, procesadores gráficos de NVIDIA, TPUs de Google, etc.) y los paquetes software para IA (PyTorch de Facebook, TensorFlow de NVIDIA, etc.).
El DL requiere una gran cantidad de cálculos, tanto para inicializar los modelos (entrenamiento) como para desplegarlos y ejecutarlos (inferencia). Comparando estos dos procesos, la inferencia es una operación relativamente rápida, con un coste del orden de segundos o menos, frente a las horas, días o semanas que son necesarias para entrenar un modelo. Sin embargo, las restricciones temporales en procesos de inferencia pueden ser muy estrictas (tiempo de respuesta) y las plataformas donde se despliegan las RNPs pueden imponer condicionantes adicionales (teléfonos móviles, dispositivos "wearables"). Frente a ello, el entrenamiento se realiza offline, mediante grandes computadores equipados con aceleradores.
Las operaciones en las que se basan los modelos de RPNs son sencillas y conocidas, tales como la multiplicación de matrices, la convolución o pequeñas transformaciones de regularización y normalización. Las librerías tradicionales poseen versiones optimizadas de las operaciones más costosas. Sin embargo, esta optimización puede resultar insuficiente cuando se aplica a las RNPs debido al coste del proceso de entrenamiento o las restricciones temporales sobre el proceso de inferencia.
En este seminario se estudiarán diversas técnicas para optimizar las operaciones básicas que subyacen a los procesos de entrenamiento e inferencia con RNPs. Para ello, se relacionará el proceso de optimización con características hardware del procesador de destino: instrucciones SIMD, aceleradores matriciales, paralelismo multihebra, jerarquía del sistema de memoria (caché), etc. Utilizaremos estas técnicas en diferentes tipos de arquitecturas actuales, especialmente aquellas dirigidas a procesadores de bajo consumo y procesos de inferencia (ARM, RISC-V,...).
Además, se estudiarán herramientas de generación automática de software tanto para optimizar operaciones básicas como para la optimización de modelos completos. Finalmente, aplicaremos las técnicas aprendidas a casos prácticos de RNPs reales, como modelos convolucionales para problemas de visión o transformers para procesamiento del lenguaje natural, sobre paquetes para DL de Python.
16 mayo 9:00 a 11:00
Modalidad: Seminario (presencial)
Resumen:
La computación cuántica es uno de los nuevos paradigmas de cálculo que mayor proyección tienen en la actualidad. Entre los campos de aplicación del hardware cuántico actual, aún limitado en tamaño y precisión, se encuentran la resolución de problemas de optimización y el uso de técnicas de cuánticas para mejorar algoritmos de machine learning.
En este curso, se repasarán los principios fundamentales de la optimización cuántica y el quantum machine learning para, a continuación, explorar aplicaciones de estas técnicas en distintos campos, incluyendo:
· Resolución de problemas de optimización combinatoria en grafos
· Simulación computacional de procesos físicos y químicos
· Construcción de clasificadores cuánticos
· Algoritmos generativos cuánticos
· Métodos de control basados en quantum reinforcement learning
Modalidad: Seminario (presencial)
Online participation at https://meet.google.com/aer-bdzu-ghw
Resumen:
En el curso se analizarán distintas técnicas de control y optimización aplicadas a la industria de procesos. En concreto, el curso se centrará en los siguientes temas:
Tendencias actuales en la industria de procesos
Métodos de optimización
MPC, DMC, RTO, eMPC
Resolución de problemas de optimización dinámica
Incertidumbre
Discontinuidades y sistemas híbridos
Otros niveles de decisión
Aplicaciones y herramientas
5 de junio de 10:00 a 14:00 horas (seminario)
5 de junio de 16:00 a 18:00 horas (reuniones con los estudiantes interesados)
Modalidad: Seminario (presencial)
IMPORTANTE:
Los participantes en el curso deben llevar portátil con conexión a internet y docker
Resumen:
This course explores the concept of achieving semantic interoperability in highly descentralized ecosystems through the use of knowledge graphs. The focus is on introducing the key concepts for creating knowledge graphs using technologies form the Semantic Web and, then, detail several techniques used to achieve semantic interoperability in terms of data exchange, discovery, and privacy.
Fechas: 29-30 de octubre de 2024
Duración: 10 horas
Lugar: AULA 25 (2.230). Planta 2ª IZQ. AULARIO V - INFORMATICA
Horario:
29 de octubre de 10:00 a 14:00 horas (seminario)
29 de octubre de 16:00 a 18:00 horas (talleres con doctorandos en salas del departamento)
30 de octubre de 10:00 a 14:00 horas (seminario)
Modalidad: Seminario (presencial)
Resumen:
La generación de imágenes sintéticas permite el desarrollo de Redes Neuronales Híbridas (HyNN) compuestas de CNNs y MLPs, que mejoran significativamente la robustez y la generalización en el proceso de aprendizaje. Este tutorial cubre los principales métodos de transformación de datos tabulares en imágenes sintéticas, incluyendo los métodos paramétricos como TINTO, REFINED e IGTD; y los métodos no paramétricos como SuperTML, BarGraph, DistanceMatrix, Combination, BIE y FeatureWrap. Se examinarán los mecanismos de transformación y las imágenes sintéticas resultantes para cada muestra a través de la librería en Python llamada TINTOlib. Además, se utilizarán los fundamentos de la arquitectura de red multimodal para implementar HyNN. Construiremos redes neuronales que puedan procesar datos en diversos formatos, incluyendo datos tabulares e imágenes sintéticas. Luego, compararemos el rendimiento de HyNN con modelos clásicos para evaluar su impacto en la generalización y la robustez del modelo.