VI Jornadas de Doctorado en Informática

JDI2023@UAL

Programa de Doctorado en Informática, Universidad de Almería, 10 de febrero de 2023

Sala de Grados del edificio CITE-III, Universidad de Almería

Trabajos de investigación



Machine Learning for Cyber Security: Mitigating Cyber Attacks and Detecting Malicious Activities in Network Traffic

Asma Burhan Rajeh Nassar

Cyber security has presently obtained extensive awareness towards the security concern, because of the increase in the favor of the internet of things (IoT), the increase in the progress of the computer network, and an enormous number of appropriate applications. Moreover, Cybersecurity can also be stated as practices that are used for defending servers, and mobile devices. Computer systems, networks, electronic systems, and data from vulnerable attacks. In the article of Sarker et al. (2020), it is stated that machine learning techniques are capable of improving cybersecurity that helping to detect malicious activity and mitigate cyber-attacks in the system.


Control óptimo basado en rechazo activo de perturbaciones para sistemas de segundo orden

Jose Jorge Carreño Zagarra

Aunque por su simplicidad y efectividad la estrategia de control comúnmente empleada en aplicaciones industriales es la técnicas de control PID (control proporcional, integral y derivativo), existe una serie de características que algunas veces no son consideradas de manera explícita en el diseño de este tipo de controladores, tales como retardos, perturbaciones, sistemas de fase no-mínima, variables no medibles, incertidumbre en los parámetros, varianza en el tiempo, no-linealidades, restricciones e interacciones multivariables. Este documento presenta una revisión de los avances obtenidos en el trabajo doctoral durante el período 2021/2022. Durante este período se desarolló un método de control óptimo por rechazo activo de perturbaciones para el seguimiento robusto de referencias en sistemas de segundo orden. El método propuesto fue validado en un modelo de simulación de un fotobiorreactor tipo Raceway y en una tarjeta de control de temperatura. Los resultados de simulación y experimentales validan la robustez del método propuesto a pesar de las dinámicas no modeladas y perturbacioens externas.


Series Temporales para determinar la influencia de la pérdida del páramo con distintas variables climáticas 

Marco Javier Castelo Cabay

El páramo en un ecosistema importante que se lo puede encontrar en Ecuador, Venezuela, Colombia, y el norte de Perú, albergan diversas especies en peligro de extinción, brindan varios beneficios ecológicos, ayudan a mitigar el cambio climático. Se ha realizado una investigación para determinar la pérdida del páramo en el cantón Quero en la provinciade Tungurahua en Ecuador, estableciendo una correlación entre el deterioro del páramo y la influencia de diferentes variables ambientales como: precipitación, escorrentía, temperatura, humedad del suelo, déficit climático del agua, radiación, índice palmer, utilizando series temporales creadas por medio de Redes Neuronales de tipo LSTM. Se analiza estas relaciones determinando los efectos que pueden tener estas variaciones en en el ecosistema aleda ño, como los cambios de temperatura, la inestabilidad en el viento, la falta de protección con los rayos utravioleta, la falta de humedad en el suelo entro otros.


Pipeline Big Data basado en IoT con curación de datos y calidad de datos 

Francisco José de Haro Olmo

Al integrar datos recogidos por sensores IoT en un sistema Big Data, conviene considerar aspectos influyentes sobre la calidad de los datos. El manejo inadecuado de los datos de los sensores puede producir datos de baja calidad, lo que conduce a decisiones incorrectas en escenarios IoT. Se propone un canal de Big Data basado en IoT que permite evaluar la usabilidad de los datos recogidos por los sensores IoT en escenarios offline y online. Se miden y evaluan los datos sobre dimensiones de calidad de datos. Nuestro pipeline permite delegar la evaluación de la calidad de los datos en un motor de reglas de decisión basado en DMN, permitiendo a los usuarios personalizar las reglas de decisión. El enfoque se ha evaluado en un escenario inteligente a partir de datos de sensores agrícolas de humedad y temperatura a diferentes profundidades. Hemos definido un conjunto de reglas de decisión en términos de dimensiones de calidad en modelos DMN, y se ha obtenido el nivel de usabilidad de los datos con respecto a diferentes dimensiones de calidad. Se ha puesto de manifiesto la importancia de evaluar la calidad de los datos y descartar aquellos de baja calidad.


An Augmented Reality Methodology Based in Spatial Tests Sensible to Spatial and Working Memory Issues

Vicente Gallardo Posligua

Augmented reality (AR) is quickly becoming a promising technological advancement. However, studies that applied AR are still scarce. Taking this into account, the current study aims to develop a new AR task-centered in evaluating spatial memory with an active navigation paradigm. The goal is to open QR codes with a smartphone in a room to unveil items, aiming to discover and open consecutively the one repeated in the set in several difficulty levels (2, 4 and 6 consecutively repeated items). Besides, a visual working memory task is also applied to assess the visual memory index. Thirty-one (31) students in total (15 men and 16 women) of the universidad Católica de Santiago de Guayaquil took part in the study. Results showed a significant effect of difficulty (ηp2 = .12), needing more time while the difficulty increases. There is also a small Difficulty Gender effect in openings (ηp2 = .14) and repeated openings (ηp2 = .17), with differential learning patters in the former and men outperforming women in the latter. They did not differ in time needed to complete the task or their visual memory index (p > 0.05). Implications and future steps of the AR paradigm in spatial memory are subsequently discussed.


Diseño de estimadores y controladores para control automático de invernaderos 

Francisco García Mañas  

En este trabajo se exponen los avances realizados hasta el tercer año de desarrollo de la tesis doctoral del autor, correspondiente al curso académico 2021/2022. Como avances de modelado, se ha desarrollado un sensor virtual para estimar el índice de área foliar de un cultivo de tomate en invernadero, y se ha implementado un estimador de parámetros en línea para adaptar en tiempo real un modelo no lineal de temperatura de un invernadero. Como avances de control automático, se han aplicado técnicas de control por prealimentación para rechazar perturbaciones que influyen en el problema de regulación de la temperatura del aire en el interior de un invernadero. Además, se ha realizado un estudio de comparación de cinco reglas de ajuste para dicho control por prealimentación, que se pueden aplicar cuando la inversión de retardos no es realizable a la hora de calcular un compensador. Finalmente, en este documento también se resumen los trabajos de investigación en curso y otros trabajos publicados, relacionados con el proyecto de tesis del autor.


Estrategias de control híbrido y optimización para biorefinerías de microalgas basadas en técnicas de aprendizaje automático

José González Hernández

Las microalgas pueden ser una solución para tratar aguas residuales y reducir las emisiones de gases de efecto invernadero, pero se necesitan técnicas para mejorar su eficiencia y productividad a escala industrial. Se han desarrollado modelos no lineales para describir la dinámica de los sistemas de producción de microalgas y tratamiento de aguas residuales, pero son complejos y requieren calibración periódica debido a la incertidumbre en los parámetros biológicos. Este proyecto de tesis utilizará técnicas de aprendizaje profundo para optimizar el diseño y operación de fotobiorreactores raceway industriales con microalgas para la producción de biomasa y tratamiento de aguas residuales.


Evolución de los sistemas de acceso a la información clínica basados en las tecnologías de la información y comunicación 

María Esther González Revuelta

El escenario digital en salud ha evolucionado considerablemente en el último año. El uso de la telemedicina, la telesalud y en general los medios digitales para el acceso del paciente a su información clínica, además del seguimiento de su proceso asistencial se ha acelerado, motivado por diversos motivos. Uno de ellos ha sido la pandemia, período en el que se ha potenciado la expansión y el uso de sistemas telemáticos de salud, donde se ha puesto claramente de manifiesto el potencial que tienen estos sistemas de atención al paciente aprovechando las tecnologías de la información y comunicación. Mediante una herramienta de Bussines Intelligence (BI) analizamos los tiempos implicados en dos procesos asistenciales integrados. Nos permite desagregar la información a un alto nivel de detalle, realizando un análisis real de los tiempos implicados en la asistencia al paciente durante todo su proceso, aplicado a dos periodos, prepandémico y durante la pandemia. Se propone minimizar estos tiempos aplicando el desarrollo y uso de las TICs. Analizamos cómo cada Servicio de Salud incorpora en sus proyectos avances en el desarrollo de la Historia Clínica Electrónica, orientados a facilitar el acceso a la información por parte del profesional y por parte del ciudadano.


Contribuciones de control robusto para sistemas sometidos a perturbaciones 

Angeles Hoyo 

Desde un punto de vista general en ingeniería de control, los problemas de control más comunes en la industria son relativos al problema de regulación o rechazo a perturbaciones, errores de modelado, no linealidades y retardos. Generalmente las estrategias de control clásicas utilizadas para solucionar estos problemas (feedback linearization, control feedforward, control en cascada...) tienen en cuenta solo el modelo lineal. Sin embargo, siempre hay fuentes de error que no hacen posible que al aplicarlo se obtenga el rendimiento deseado. Por ello se requiere, en todas estas estrategias, una modificación específica para darle el grado de robustez del cual carecen. Esta tesis tiene como objetivo abordar estos cuatro problemas con estrategias clásicas de control, analizando su robustez y validando su desempeño tanto en simulación como en plantas experimentales (un invernadero y un fotobiorreactor). Este trabajo presenta una revisión de los avances realizados en los cursos 2018/2019, 2019/2020, 2020/2021 y 2021/2022 en el marco de la presente tesis.


Enhancing security and energy efficiency in wireless sensor networks through optimized routing protocols

Safwan Mawlood Hussein

The Modified LEACH (Low Energy Adaptive Clustering Hierarchy) protocol is a modified version of the original LEACH protocol, aimed at improving the energy efficiency and security of wireless sensor networks. It addresses the issues of energy consumption and security in wireless sensor networks by using clustering and rotation of cluster heads, thus reducing the number of nodes transmitting at any given time and increasing the network's overall lifespan. Additionally, the Modified LEACH protocol implements security mechanisms to ensure the confidentiality and authenticity of the data transmitted in the network. This paper presents a secure and efficient method to protect communications and energy consumption in Internet of Things (IoT) wireless sensor networks. The method proposed in the paper uses a combination of cryptographic techniques and energy-saving protocols to achieve the desired outcome. The proposed method compared to existing protocols in terms of security and energy efficiency. The simulation results indicate that the proposed method outperforms the existing protocols in terms of both security and energy efficiency, making it a suitable choice for IoT wireless sensor networks.


Estrategias avanzadas de control predictivo aplicadas a sistemas solares térmicos⋆ 

Igor Mendes Lima Pataro

El control de campos de captadores solares térmicos es un desafío en lo que respecta al desarrollo de modelos representativos y soluciones de control adecuadas. Para hacer frente a este problema, este trabajo propone un controlador óptimo adaptativo libre de modelo basado en el algoritmo Reinforcement Q-Learning. La solución propuesta requiere solo medidas de las principales variables de la planta, como la temperatura y el caudal del fluido de trabajo, y la trayectoria de referencia, para proporcionar una ley de control óptima que converge a las ganancias óptimas de un controlador LQT (Linear Quadratic Tracking, por sus siglas en inglés). De forma demostrativa, el algoritmo Q-Learning desarrollado se pone a prueba usando un modelo validado del campo de captadores solares del edificio CIESOL (Almería, Espa ña), en un escenario simulado confiable considerando datos reales de la instalación. Además, en aras de la comparación, el algoritmo Q-Learning se compara con el controlador LQT convencional. Los resultados demuestran la eficacia y las ventajas del controlador libre de modelo propuesto, evidenciando como el algoritmo Q-Learning puede superar los principales inconvenientes de los controladores basados en modelo en el control de campos de captadores solares, tales como la adaptación de la ley de control. Consecuentemente, la solución Q-Learning puede eliminar el error en estado estacionario del controlador LQT convencional durante la operación del sistema. En particular, la estrategia Q-Learning presenta un mejor rendimiento en un escenario de día soleado cuando se producen variaciones suaves de la irradiación solar, en el que el error de las ganancias calculadas con RL está dentro del 15% de las ganancias óptimas de LQT. Cabe destacar que la estrategia libre de modelo propuesta se puede extender adecuadamente a diferentes sistemas sin cambiar la formulación del controlador, siendo valiosa para manejar aplicaciones reales.


Un Sistema de Recomendación para Sistemas Ciberfísicos a través de consultas en Lenguaje Natural mediante el uso de Transformer 

Juan Alberto Llopis 

Como resultado de los avances tecnológicos, los dispositivos del Internet de las Cosas (IoT), a pesar de tener las mismas características, pueden funcionar y comunicarse de manera diferente. Por lo tanto, encontrar un dispositivo específico entre un conjunto de dispositivos puede ser una tarea difícil. Como avance al servicio de descubrimiento proactivo propuesto en las jornadas anteriores, se propone una arquitectura de modelo de descubrimiento que incorpore un sistema de recomendación basado en deep learning. El sistema de recomendación propuesto sirve como soporte en la búsqueda de dispositivos por parte del servicio de descubrimiento, permitiendo su búsqueda mediante el uso de lenguaje natural. Como algoritmo para entrenar el modelo del sistema de recomendaci ón se ha utilizado Transformer con el objetivo de estudiar el funcionamiento del Transformer en problemas de búsqueda de dispositivos IoT haciendo uso del lenguaje natural. El modelo de deep learning entrenado se ha validado utilizando un peque ño dataset de dispositivos de un hogar inteligente para estudiar su funcionamiento en entornos con pocos datos. Los resultados obtenidos muestran que el modelo devuelve, para cada consulta en lenguaje natural, un listado de dispositivos relevantes con un alto grado de confianza.


Aceleración de la búsqueda de red neuronal óptima haciendo uso de varias GPUs 

Marcos Lupión

Las redes neuronales tratan de simular el comportamiento del cerebro para realizar tareas como visión por computador, clasificación o procesamiento de sonido. Sin embargo, el diseño y la configuración de la arquitectura de la red neuronal es un proceso que requiere experiencia y es costoso computacionalmente. Por ello, se está investigando la forma de crear redes neuronales óptimas para una determinada tarea de forma automática. En este trabajo, se propone el uso de un algoritmo meta-heurístico denominado "Optimización basada en la enseñanza-aprendizaje" para dicho propósito. Este algoritmo está basado en poblaciones y requiere la evaluación de individuos (arquitecturas de red neuronal). Para procesar cada arquitectura de red neuronal, se propone una codificación en números reales. Además, la evaluación una arquitectura de red neuronal requiere el uso de GPU. Para paralelizar al máximo la evaluación de dichos individuos, se programa un "oráculo", que recibe una población a evaluar y devuelve el coste de dichos individuos, repartiendo la carga entre las diferentes CPUs y GPUs del sistema. Los resultados demustran que la paralelización obtiene un speed-up de 4.2 sobre el máximo teórico de 4.39, además de obtener una arquitectura de red neuronal mejor que la encontrada por expertos humanos.


Digital Dice como alternativa de Alta disponibilidad en entornos IoT 

Manel Mena 

En los últimos años el uso de dispositivos IoT ha crecido exponencialmente. Al trabajar con ellos, nos encontramos con una serie de problemas que no son fáciles de resolver. Por un lado, el simple hecho de comunicarnos con esos dispositivos puede ser problemático ya que pueden usar diferentes tipos de tecnologías en cuanto a esa comunicaci ón. Por otro lado, estos tipos de dispositivos suelen tener como objetivo realizar su función usando la menor energía posible, lo que significa que tienen ciertas restricciones en cuanto a rendimiento. Intentar trabajar con estos dispositivos en entornos de alta disponibilidad se vuelve difícil debido a esas restricciones. En este artículo vamos a describir cómo hemos conseguido dotar a Digital Dice de la capacidad de trabajar en entornos de alta disponibilidad. Para ello, vamos a presentar las diferentes estrategias que Digital Dice utiliza para mitigar los problemas que se plantean, demostrando las ventajas de su uso en entornos que requieran alta disponibilidad.


Ajuste automático de modelos gEUD para planificación en IMRT

Juan José Moreno Riado

La Radioterapia de Intensidad Modulada (IMRT) es un tratamiento contra el cáncer que aplica altas dosis de radiación de forma precisa en el cuerpo del paciente. Los modelos basados en la Dosis Uniforme Equivalente Generalizada (gEUD) proporcionan planes de irradiación con excelente cobertura dosimétrica de las zonas tumorales y gran protección de los tejidos sanos. Sin embargo, estos modelos requieren un extenso conjunto de parámetros de difícil ajuste. En este trabajo proponemos una estrategia de optimización de dos capas: En la capa inferior optimizamos un modelo gEUD con un algoritmo de descenso por gradiente. En la capa superior ajustamos los parámetros de ese modelo gEUD, utilizando una metaheurística basada en un algoritmo genético multiobjetivo. Para evaluar la metodología propuesta se ha utilizado un caso real de un paciente con un cáncer de Cabeza y Cuello (H&N). Nuestra implementación ha sido capaz de proporcionar, de forma autónoma, un conjunto de planes alternativos y de compromiso, que han sido posteriormente validados independientemente como clínicamente aceptables. Esta estrategia podría facilitar el trabajo de los radiofísicos, proporcionándoles alternativas no exploradas y reduciendo el tiempo requerido para proveer un plan de calidad a cada paciente.


Implementación de circuitos de segmentación de doble umbral tolerantes a fallos para agricultura de precisión 

Luis Ortega López

La agricultura de precisión está sufriendo una gran transformación gracias a las técnicas de procesado de imagen, que la dotan de varias herramientas de análisis, seguimiento y/o diagnóstico de cultivos. La captura de información de los cultivos, así como su posterior procesamiento es un campo de gran interés. Una vez que la información es captada utilizando una gran variedad de dispositivos, cámaras y/o sensores, es necesario realizar un procesamiento de estos datos para que su posterior análisis sea fiable. Los algoritmos cuánticos de procesamiento de imágenes han alcanzado un gran interés en los últimos años debido a las características intrínsecas de la computación cuántica, como el alto nivel de paralelismo y entrelazamiento. En la tesis se ha desarrollado un algoritmo cuántico de segmentación por doble umbral. El algoritmo puede utilizarse para discriminar el estado de salud de los cultivos y su crecimiento haciendo uso de factores como el NVDI. Este algoritmo se ha construido utilizando sólo puertas Clifford+T para compatibilidad con códigos de detección y corrección de errores. Dado que la implementación tolerante a fallos tiene un alto coste en puertas, el trabajo se ha centrado en reducir el número de estas puertas, optimizando los circuitos del estado del arte.


Modelado y control del proceso de producción de microalgas mediante estrategias de aprendizaje automático 

Pablo Otálora Berenguel 

La producción de microalgas a nivel industrial es un proceso atractivo debido a sus múltiples aplicaciones, entre las que destaca el tratamiento de aguas residuales. Sin embargo, su marcado carácter biológico genera grandes dificultades a la hora de lograr su optimización. Esto implica la necesidad de grandes esfuerzos, tanto a la hora de obtener modelos descriptivos de diferentes aspectos del sistema, como para desarrollar estrategias de control que logren maximizar la productividad. Ante esta casuística, las técnicas de aprendizaje automático basadas en datos se presentan como una alternativa atractiva para atajar estos problemas. Este tipo de técnicas, cuando se encuentran respaldadas por un volumen suficiente de datos, son capaces de adaptarse muy bien a circunstancias diversas en problemas de elevada complejidad. Esta tesis tiene como objetivo el uso de técnicas basadas en datos para abordar el problema de optimización, modelado y control de la producción de microalgas, validando los resultados obtenidos tanto en simulación como en sistemas de producción reales. Este trabajo presenta los avances logrados en dicha tesis en los cursos 2020/21, 2021/22 y 2022/23.


Streaming interactivo de secuencias de imágenes de alta resolución JPEG2000 

José Juan Sánchez Hernández

Este informe de progreso muestra un resumen del estado actual de los trabajos de investigación que se han realizado durante los últimos a ños de esta tesis. Los trabajos realizados se basan en estrategias que permiten optimizar la transmisión de secuencias de imágenes de alta resolución JPEG2000 en arquitecturas cliente/servidor que hagan uso del estándar de compresión JPEG2000 y el protocolo JPIP. Todas las propuestas realizadas tratan de optimizar la transmisión desde el punto de vista del cliente para que puedan ser compatibles con cualquier servidor JPIP estándar. La principal contribución se basa en una estrategia de control de flujo de datos donde los clientes se encargan de hacer la estimación de la capacidad del canal y de realizar el control del flujo de datos durante la transmisión. Otra de las contribuciones que se realiza en este trabajo, es la actualización condicional y la compensación de movimiento controlada por el cliente. Los resultados de los experimentos demuestran que la calidad de las imágenes reconstruidas mejora significativamente cuando se aplican las estrategias propuestas.


Evaluación de plataformas de videoconferencias en ambientes síncronos como mecanismo de aprovechamiento académico en la Educación Superior en tiempos de la crisis del COVID-19 

Teresa Santamaría-López 

La tecnología streaming sobre el rendimiento académico en los estudiantes de dos entornos aca-démicos de la Universidad de Guayaquil, Ecuador. La muestra corresponde a 20 estudiantes del primer semestre, de las facultades de Comunicación Social, y Filosofía, Letras y Ciencias de la Educación. Se realizó un estudio longitudinal de medidas repetidas usando tres configuraciones de ambientes educativos. Dos de éstas incluyen plataformas de videoconferencia, tecnologías de amplia utilización para reuniones virtuales; Zoom Cloud Meeting, Microsoft Teams, y un tercer ambiente educativo representado por el contexto pedagógico estándar o tradicional. Para dar res-puesta al objetivo del estudio se llevaron a cabo análisis descriptivos e inferenciales (ANOVA) de los datos obtenidos. Los resultados determinaron diferencias significativas en el rendimiento estudiantil entre las tres tecnologías. La tecnología estándar, resultó en menor rendimiento promedio significativo que las tecnologías basadas en Zoom y Microsoft Teams, no existiendo diferencias significativas entre éstas. No se encontró diferencias significativas entre los rendi-mientos obtenidos por Facultad de adscripción ni en la condición de tenencia previa de conoci-miento sobre las TIC. Los participantes manifestaron satisfacción y adaptación al recurso strea-ming en el proceso de enseñanza aprendizaje. El estudio indicó que entornos académicos confor-mados con apoyo de tecnología streaming además de propiciar satisfacción, afectan positiva-mente el rendimiento estudiantil remoto.


Estandarización de la evaluación de rendimiento de una planta de destilación multi-efecto 

Juan Miguel Serrano Rodríguez

La destilación multi-efecto (MED) es una tecnología de desalación madura y de amplia aplicación, pero se ha visto desplazada por sus elevados requerimientos energéticos. Con el objetivo de mejorar su viabilidad y hacer atractiva su aplicación en concentración de salmuera [5] y extracción de recursos de estas [14], actualmente se están llevando a cabo desarrollos tecnológicos innovadores [27,25,5]. Sin embargo, no existe una metodología definida para la evaluación experimental de estas mejoras, tal y como ocurre en otras tecnologías [23]. Debido a la falta de una normativa, hasta el momento los resultados publicados no especifican el método de evaluación e incluso emplean métricas diferentes. En este contexto, este trabajo presenta el desarrollo de un enfoque sistemático para la evaluaci ón del rendimiento de plantas tipo MED: estudio de las métricas utilizadas en la evaluación de la operación, determinación de las variables claves del proceso, implementación de una metodología para la evaluación de la operación en condiciones de estado estacionario (con posibilidad de aplicar en línea) y propuesta e implementación de un sistema de control que permita la operación en distintos puntos de operación de manera fiable.


Modelado y gestión energética de una microrred 

Alex Omar Topa Gavilema

Este trabajo consiste en el modelado y gestión energética de una microrred (MR), tanto del lado de la oferta como de la demanda. Mediante la utilización de modelos se gestionará y controlará de una forma óptima la MR, para ello se utilizarán una o varias técnicas de optimización, usadas en gestión energética de MRs. La fase inicial para la gestión energética de la MR del lado de la oferta, empezó adoptando uno de los algoritmos de control más utilizados en la gestión energética de MRs, el control predictivo basado en modelo o “Model Predictive Control (MPC)”. La siguiente fase, analizó la gestión energética del lado de la demanda, a través de la optimización de las curvas de demanda y producción basada en un algoritmo genético e inspirada en el rompecabezas chino Tangram. Estas estrategias de gestión de la energía fueron desarrolladas con el objetivo de cubrir la demanda de carga de una oficina ubicada en el edificio CIESOL. Finalmente, los resultados de esta investigación se mostrarán, mediante la elaboración y publicación de artículos científicos en revistas de alto impacto, congresos nacionales e internacionales para validar la investigación realizada.