Programa Formativo 2024

Doctorado en Informática de la Universidad de Almería

[ Introduccion ] [ Registro ] [ Programa ] [ Fotos ]  [2023] [2022 ] [ 2021 ] [ 2020 ] [ 2019 ] [ 2018 ] [ Organización ] [ Doctorado ]

Introducción


El Programa de Doctorado en Informática  de la Universidad de Almería se propone como objetivo ofertar cursos de formación específicos para sus estudiantes de doctorado en las líneas de investigación del programa. 

Por este motivo, la Comisión Académica del Doctorado en Informática se complace en anunciar el presente Programa de Actividades Formativas para el año 2023. El programa está especialmente destinado a los estudiantes del Doctorado en Informática de la Universidad de Almería, aunque queda abierto a cualquier persona con intereses científicos en los citados campos de la Informática.

El programa contará con la participación de ponentes de gran prestigio internacional en el ámbito de la Informática.

Se otorgará un "Certificado de aprovechamiento" con el listado de los cursos y número de horas totales asistidas, siempre y cuando se acredite al menos un 80% de la asistencia en cada uno de los cursos asistidos, además de las actividades requeridas por el ponente en cada curso (si las hay). El certificado se emitirá a final de año, al terminar el programa formativo completo. 

Registro

Para facilitar el control de asistencia y la posterior emisión de certificados, es necesario registrarse previamente a los cursos a través del siguiente enlace.

Los horarios y lugar están sujetos a cambios de última hora. Se puede realizar el registro varias veces si se desea modificar la asistencia a los cursos (el último realizado será considerado como el válido, anulando a los anteriores). 

NOTA: Una vez enviado el Formulario de Registro se recibirá un correo (que se recomienda conservar), desde donde será posible modificar el formulario o consultar los cursos en los que se ha registrado.

Programa


El presente programa está sujeto a posibles cambios en el tiempo por motivos de coordinación. Cada curso se irá anunciando con antelación a través de los canales de difusión que dispone la Comisión Académica .



An introduction to linear and nonlinear parameter estimation

Ponente: Prof. Alain Vande Wouwer (University of Mons, Belgium)

Fechas: 7-8 de marzo de 2024

Duración: 10 horas 

Lugar: AULA 03 - MAC (0.250). Planta baja IZQ. AULARIO V - INFORMATICA 

Horario: 

       7 de marzo de 10:00 a 14:00 horas (seminario)

       7 de marzo de 16:00 a 18:00 horas (reuniones con doctorandos en instalaciones experimentales)

       8 de marzo de 10:00 a 14:00 horas (seminario)

Modalidad: Seminario (presencial)

Número de plazas: 25

Resumen: 

This set of lectures introduce various concepts that are useful in the derivation of mathematical models of dynamic systems. The models usually consist of sets of (non)linear differential (or difference) equations, which contain unknown parameters whose values have to be inferred from experimental data. The most common approach to parameter identification is based on the minimization of the distance between the model prediction and the measured data but other approaches exploit the structure of the system to infer parameter estimates.


This course will take place over two days and the topics will be roughly divided as follows:

Day 1

a)   Distance(s) between model prediction and data

b)   parametric sensitivity analysis

c)   identifiability and the Fisher Information Matrix

d)   design of experiments

e)   validation and cross-validation

f)        linear and nonlinear least squares

g)   maximum likelihood estimation

h)       worked examples in Matlab

Day 2

a)       subspace identification

b)      sparse identification

c)    worked examples in Matlab 


Segmentación de imagen médica mediante técnicas de Deep Learning

Ponente: Prof. Dr. Juan Diego Gutiérrez Gallardo (Universidad de Santiago de Compostela) 

Fechas: 11-12 abril 2024

Duración: 10 horas 

Lugar: AULA 03 - MAC (0.250). Planta baja IZQ. AULARIO V - INFORMATICA

Horario: Jueves 11 de abril de 10:30 a 14:30 y Viernes 12 de abril de 9:30 a 13:30 y reuniones personalizadas viernes 12 de abril de 16:00 a 18:00


Modalidad: Seminario (presencial)

Número de plazas: 25

Resumen: 

La segmentación de imágenes médicas es un campo crucial en la investigación y el diagnóstico médico. El uso de técnicas de Deep Learning ha revolucionado esta área al proporcionar herramientas capaces de extraer características de las mismas con precisión y, a la vez, automatizar el proceso. Una correcta segmentación resulta crucial para poder realizar un tratamiento o un diagnóstico adecuado.

El Deep Learning se basa en redes neuronales profundas, que son capaces de aprender características complejas y representaciones abstractas a partir de grandes conjuntos de datos. Estas redes se entrenan utilizando algoritmos de aprendizaje automático para reconocer y clasificar diferentes regiones de interés en las imágenes.

En este seminario aprenderás técnicas de segmentación de imágenes basadas en Deep Learning, y las compararás con las técnicas tradicionales. Además, se presentarán los formatos de imágenes más frecuentemente utilizados en el campo médico, diferenciándolos de otros formatos de imágenes más comunes. Al terminar, serás capaz de crear una red neuronal profunda desde cero, importar imágenes médicas de diferente formato a un formato común, y utilizarlas de forma adecuada para entrenar tu propio modelo capaz de realizar segmentación de órganos.

Es recomendable que quienes participen en el seminario tengan conocimientos de programación, ya que se realizará utilizando Python, notebooks de Jupyter, y Keras.


Optimización de entornos software para Inteligencia Artificial 

Ponente: Prof. Enrique Quintana Ortí. Universidad Politécnica de Valencia

Fechas: 17-18 de abril de 2024

Duración: 10 horas 

Lugar: Laboratorio Smart-Home  y 2.01 (CITE-III)

Horario:  Miercoles 17 abril de 10:30 a 14:30 y de 16:30 a 19:30; Jueves 18 de abril de 9:30 a 13:30


Modalidad: Seminario (presencial)

Número de plazas: 25

Resumen: 


El actual auge de la Inteligencia Artificial (IA) basada en redes neuronales profundas (RNPs), también conocida como deep learning (DL), se debe a la disponibilidad de una ingente cantidad de datos con los que entrenar estas redes (big data), el desarrollo de nuevos algoritmos (transformers, que son la base de modelos como ChatGPT), el diseño de aceleradores hardware (procesadores manycore, procesadores gráficos de NVIDIA, TPUs de Google, etc.) y los paquetes software para IA (PyTorch de Facebook, TensorFlow de NVIDIA, etc.).

El DL requiere una gran cantidad de cálculos, tanto para inicializar los modelos (entrenamiento) como para desplegarlos y ejecutarlos (inferencia). Comparando estos dos procesos, la inferencia es una operación relativamente rápida, con un coste del orden de segundos o menos, frente a las horas, días o semanas que son necesarias para entrenar un modelo. Sin embargo, las restricciones temporales en procesos de inferencia pueden ser muy estrictas (tiempo de respuesta) y las plataformas donde se despliegan las RNPs pueden imponer condicionantes adicionales (teléfonos móviles, dispositivos "wearables"). Frente a ello, el entrenamiento se realiza offline, mediante grandes computadores equipados con aceleradores.

Las operaciones en las que se basan los modelos de RPNs son sencillas y conocidas, tales como la multiplicación de matrices, la convolución o pequeñas transformaciones de regularización y normalización. Las librerías tradicionales poseen versiones optimizadas de las operaciones más costosas. Sin embargo, esta optimización puede resultar insuficiente cuando se aplica a las RNPs debido al coste del proceso de entrenamiento o las restricciones temporales sobre el proceso de inferencia.

En este seminario se estudiarán diversas técnicas para optimizar las operaciones básicas que subyacen a los procesos de entrenamiento e inferencia con RNPs. Para ello, se relacionará el proceso de optimización con características hardware del procesador de destino: instrucciones SIMD, aceleradores matriciales, paralelismo multihebra, jerarquía del sistema de memoria (caché), etc. Utilizaremos estas técnicas en diferentes tipos de arquitecturas actuales, especialmente aquellas dirigidas a procesadores de bajo consumo y procesos de inferencia (ARM, RISC-V,...).

Además, se estudiarán herramientas de generación automática de software tanto para optimizar operaciones básicas como para la optimización de modelos completos. Finalmente, aplicaremos las técnicas aprendidas a casos prácticos de RNPs reales, como modelos convolucionales para problemas de visión o transformers para procesamiento del lenguaje natural, sobre paquetes para DL de Python. 


Aplicaciones de la optimización cuántica y el quantum machine learning 

Ponente: Prof. Dr. Elías Fernández-Combarro Álvarez (Univ. Oviedo, ES)

Fechas: 14-16 de mayo de 2024

Duración: 15 horas 

Lugar: Laboratorio Smart-Home- CITE III

Horario: 

14-15 de mayo 9:00 a 13:30 y 16:00-18:00

16 mayo 9:00 a 11:00


Modalidad: Seminario (presencial)

Número de plazas: 25

Resumen: 

La computación cuántica es uno de los nuevos paradigmas de cálculo que mayor proyección tienen en la actualidad. Entre los campos de aplicación del hardware cuántico actual, aún limitado en tamaño y precisión, se encuentran la resolución de problemas de optimización y el uso de técnicas de cuánticas para mejorar algoritmos de machine learning.

 

En este curso, se repasarán los principios fundamentales de la optimización cuántica y el quantum machine learning para, a continuación, explorar aplicaciones de estas técnicas en distintos campos, incluyendo:

·       Resolución de problemas de optimización combinatoria en grafos

·       Simulación computacional de procesos físicos y químicos

·       Construcción de clasificadores cuánticos

·       Algoritmos generativos cuánticos

·       Métodos de control basados en quantum reinforcement learning


Optimización y control de procesos 

Ponente: Prof. Dr. César de Prada Moraga (Universidad de Valladolid)

Fechas: 21-22 de mayo de 2024

Duración: 10 horas 

Lugar: SALA DE GRADOS DEL CITE-III (Matemáticas e Informática)

Horario: 

21 de mayo de 10:00 a 14:00 horas (seminario)
22 de mayo de 10:00 a 14:00 horas (seminario)
22 de mayo de 16:00 a 18:00 horas (reuniones con doctorandos en instalaciones experimentales)


Modalidad: Seminario (presencial)

Número de plazas: 25

Online participation at  https://meet.google.com/aer-bdzu-ghw


Resumen: 

En el curso se analizarán distintas técnicas de control y optimización aplicadas a la industria de procesos. En concreto, el curso se centrará en los siguientes temas:


Semantic Interoperability through decentralised Knowledge Graphs

Ponente: Prof. Dr. Andrea Jesus Cimmino Arriaga y Prof. Dr. Raúl García Castro (Universidad Politécnicas de Madrid, Ontology Engineering Group)

Fechas: 4-5 de junio 2024

Duración: 10 horas 

Lugar: Seminario Turing (2.12.0) CITE III

Horario: 

4 de junio de 10:00 a 14:00 horas (seminario)

5 de junio de 10:00 a 14:00 horas (seminario)

5 de junio de 16:00 a 18:00 horas (reuniones con los estudiantes interesados)


Modalidad: Seminario (presencial)

Número de plazas: 25

Resumen: 

This course explores the concept of achieving semantic interoperability in highly descentralized ecosystems through the use of knowledge graphs. The focus is on introducing the key concepts for creating knowledge graphs using technologies form the Semantic Web and, then, detail several techniques used to achieve semantic interoperability in terms of data exchange, discovery, and privacy.


Mejora del aprendizaje profundo mediante la explotación de imágenes sintéticas

Ponente: Prof. Dr. Manuel Castillo-Cara (Universidad Nacional de Educación a Distancia)

Fechas: 29-30 de octubre de 2024

Duración: 10 horas


Lugar: SALA DE GRADOS DEL CITE-III (Matemáticas e Informática)

Horario:

29 de octubre de 10:00 a 14:00 horas (seminario)

29 de octubre de 10:00 a 14:00 horas (seminario)

30 de octubre de 16:00 a 18:00 horas (talleres con doctorandos)


Modalidad: Seminario (presencial)

Número de plazas: 25

Resumen: 

The generation of synthetic images allows the development of novel HyNNs composed of CNNs and MLPs, which significantly improve the robustness and generalisation in the learning process. This tutorial covers the main methods of transforming tabular data into synthetic images, including TINTO, REFINED, IGTD, SuperTML, BarGraph, DistanceMatrix, and Combination. The transformation mechanisms and resulting synthetic images for each sample will be examined. Additionally, the fundamentals of multimodal network architecture will be used to implement HyNN. We will construct neural networks that can process data in various formats, including tabular data and synthetic images. We will then compare the performance of HyNN with classical models to assess its impact on model generalisation and robustness.




Fotos

Lugar de celebración


Campus universitario de La Cañada, Universidad de Almería

Para cada curso ver el lugar de celebración

Organización


Organiza la Comisión Académica del Doctorado en Informática y el Departamento de Informática de la UAL en colaboración con la Escuela Internacional de Doctorado.