III Jornadas de Doctorado en Informática
JDI2020@UAL
Programa de Doctorado en Informática, Universidad de Almería, 21 de febrero de 2020
9:30 h -12:30h, Sala de Grados del edificio CITE-III, Universidad de Almería
Introducción
Introducción
Las III Jornadas de Doctorado en Informática de la Universidad de Almería (JDI2020@UAL) es un evento que se realiza en el marco del Programa de Doctorado en Informática de la UAL cuyo objetivo principal es la realización del seguimiento de la investigación anual de los estudiantes de doctorado, y que sirve, a la vez, como punto de encuentro anual para estudiantes, tutores, directores y miembros de la comunidad universitaria con intereses comunes en la investigación científica en el ámbito de la Informática. Asimismo, estas jornadas pretenden servir como foro para la difusión y divulgación de los resultados de investigación de la Informática que se están desarrollando en las tesis doctorales soportadas por los actuales proyectos de I+D de los Grupos de Investigación del Departamento de Informática. Estas jornadas son en abierto, y la entrada es gratuita, pudiendo asistir a las mismas cualquier persona interesada por la investigación científica y técnica en el ámbito de la Informática.
Las III Jornadas de Doctorado en Informática de la Universidad de Almería (JDI2020@UAL) es un evento que se realiza en el marco del Programa de Doctorado en Informática de la UAL cuyo objetivo principal es la realización del seguimiento de la investigación anual de los estudiantes de doctorado, y que sirve, a la vez, como punto de encuentro anual para estudiantes, tutores, directores y miembros de la comunidad universitaria con intereses comunes en la investigación científica en el ámbito de la Informática. Asimismo, estas jornadas pretenden servir como foro para la difusión y divulgación de los resultados de investigación de la Informática que se están desarrollando en las tesis doctorales soportadas por los actuales proyectos de I+D de los Grupos de Investigación del Departamento de Informática. Estas jornadas son en abierto, y la entrada es gratuita, pudiendo asistir a las mismas cualquier persona interesada por la investigación científica y técnica en el ámbito de la Informática.
Registro
Registro
Aunque no es obligatorio realizar un registro previo para asistir a las jornadas, es recomendable hacer una inscripción para tener una estimación del número de asistentes al evento:
Aunque no es obligatorio realizar un registro previo para asistir a las jornadas, es recomendable hacer una inscripción para tener una estimación del número de asistentes al evento:
Tesis invitada (2019)
Tesis invitada (2019)
Computación de altas prestaciones en el diseño óptimo y control de plantas solares de torre
Computación de altas prestaciones en el diseño óptimo y control de plantas solares de torre
Nicolás Calvo Cruz
Nicolás Calvo Cruz
21 de febrero 2020 (viernes) a las 9:15 h. Sala de Grados de edificio CITE-III (2da planta), Universidad de Almería
Las plantas solares de torre central tienen un conjunto de espejos, llamados helióstatos, y un receptor de radiación. Los helióstatos siguen el movimiento del sol para concentrar en él la radiación solar. El receptor usa esta energía para calentar un fluido que circula en su interior y que finalmente se usa para producir electricidad en un ciclo de turbina. Esta tesis doctoral propone y estudia métodos computacionales en dos líneas de trabajo: el diseño óptimo y el control del campo de helióstatos. Ambas facetas son muy importantes en estas infraestructuras porque el campo de helióstatos puede suponer hasta el 50% de la inversión inicial y hasta un 40% de pérdida energética. Como marco de trabajo común, se comienza haciendo una revisión bibliográfica de herramientas de optimización del campo de helióstatos y análisis óptico de su comportamiento. El trabajo se centra entonces en el diseño de métodos para optimizar la distribución de los helióstatos en torno al receptor. Se trabaja en primer lugar en estudiar estrategias de paralelización de la evaluación del rendimiento de campos solares como función objetivo en un problema de optimización. Sobre el modelo desarrollado se pasa a comparar métodos de optimización para ubicar helióstatos siguiendo un patrón geométrico. Se pasa finalmente a optimizar sus posiciones individualmente sobre el plano. En primera instancia se diseña un algoritmo genético paralelo para hacerlo y, finalmente, se propone una metaheurística que facilita el uso de este tipo de métodos. Ya en la segunda línea, se diseña una nueva metodología para modelar campos de forma analítica, en instantes sueltos en primera instancia, y finalmente en cualquier momento del año. Se desarrolla una versión paralela de un optimizador basado en poblaciones para asignar puntos de enfoque a los helióstatos activos para replicar cualquier perfil de flujo sobre el receptor. Esa estrategia se extiende a un método general que escoge los helióstatos combinando algoritmo genético y un descenso por gradiente calculado en paralelo. Para concluir, se diseña un controlador heurístico en bucle cerrado combinando dicho método con los modelos de campo junto con realimentación
Las plantas solares de torre central tienen un conjunto de espejos, llamados helióstatos, y un receptor de radiación. Los helióstatos siguen el movimiento del sol para concentrar en él la radiación solar. El receptor usa esta energía para calentar un fluido que circula en su interior y que finalmente se usa para producir electricidad en un ciclo de turbina. Esta tesis doctoral propone y estudia métodos computacionales en dos líneas de trabajo: el diseño óptimo y el control del campo de helióstatos. Ambas facetas son muy importantes en estas infraestructuras porque el campo de helióstatos puede suponer hasta el 50% de la inversión inicial y hasta un 40% de pérdida energética. Como marco de trabajo común, se comienza haciendo una revisión bibliográfica de herramientas de optimización del campo de helióstatos y análisis óptico de su comportamiento. El trabajo se centra entonces en el diseño de métodos para optimizar la distribución de los helióstatos en torno al receptor. Se trabaja en primer lugar en estudiar estrategias de paralelización de la evaluación del rendimiento de campos solares como función objetivo en un problema de optimización. Sobre el modelo desarrollado se pasa a comparar métodos de optimización para ubicar helióstatos siguiendo un patrón geométrico. Se pasa finalmente a optimizar sus posiciones individualmente sobre el plano. En primera instancia se diseña un algoritmo genético paralelo para hacerlo y, finalmente, se propone una metaheurística que facilita el uso de este tipo de métodos. Ya en la segunda línea, se diseña una nueva metodología para modelar campos de forma analítica, en instantes sueltos en primera instancia, y finalmente en cualquier momento del año. Se desarrolla una versión paralela de un optimizador basado en poblaciones para asignar puntos de enfoque a los helióstatos activos para replicar cualquier perfil de flujo sobre el receptor. Esa estrategia se extiende a un método general que escoge los helióstatos combinando algoritmo genético y un descenso por gradiente calculado en paralelo. Para concluir, se diseña un controlador heurístico en bucle cerrado combinando dicho método con los modelos de campo junto con realimentación
[slides]
[slides]
Trabajos de Investigación
Trabajos de Investigación
21 de febrero 2020 (jueves) a las 9:30 h. Sala de Grados de edificio CITE-III (2da planta), Universidad de Almería
Darwin Alulema: "Una metodología basada en modelos y servicios para la integración de sistemas IoT". [actas]
Darwin Alulema: "Una metodología basada en modelos y servicios para la integración de sistemas IoT". [actas]
Jose Jorge Carreño Zagarra: "Control óptimo basado en rechazo activo de perturbaciones para sistemas inciertos". [actas]
Jose Jorge Carreño Zagarra: "Control óptimo basado en rechazo activo de perturbaciones para sistemas inciertos". [actas]
Francisco Jose de Haro Olmo: "Revisión sistemática sobre blockchain desde la perspectiva de la privacidad y la anonimización". [actas]
Francisco Jose de Haro Olmo: "Revisión sistemática sobre blockchain desde la perspectiva de la privacidad y la anonimización". [actas]
Francisco García García: "Procesamiento eficiente de consultas y técnicas de particionado en SpatialHadoop". [actas]
Francisco García García: "Procesamiento eficiente de consultas y técnicas de particionado en SpatialHadoop". [actas]
Juan Diego Gil Vergel: "Sistemas de control para las fases de arranque y operacion en plantas de destilacion solar por membranas a escala industrial". [actas]
Juan Diego Gil Vergel: "Sistemas de control para las fases de arranque y operacion en plantas de destilacion solar por membranas a escala industrial". [actas]
Francisco Jose Gomez Navarro: "Avances en el Modelado y Simulacion de un Nuevo Concepto de Vehículo Urbano Electrico Ligero. Almacenamiento y Distribucion de Energia". [actas]
Francisco Jose Gomez Navarro: "Avances en el Modelado y Simulacion de un Nuevo Concepto de Vehículo Urbano Electrico Ligero. Almacenamiento y Distribucion de Energia". [actas]
Esther González Revuelta: "Análisis de demandas y expectativas del paciente frente a los nuevos modelos digitales de relación médico-paciente. Desarrollo de herramientas que facilitan la información y comunicación". [actas]
Esther González Revuelta: "Análisis de demandas y expectativas del paciente frente a los nuevos modelos digitales de relación médico-paciente. Desarrollo de herramientas que facilitan la información y comunicación". [actas]
Ángeles Hoyo: "Contribuciones de control robusto para sistemas sometidos a perturbaciones". [actas]
Ángeles Hoyo: "Contribuciones de control robusto para sistemas sometidos a perturbaciones". [actas]
Safwan Mawlood Hussein: "Distribucion segura de claves en redes de sensores para IoT". [actas]
Safwan Mawlood Hussein: "Distribucion segura de claves en redes de sensores para IoT". [actas]
Manel Mena Vicente: "Digital Dices: Microservicios en el marco de la Web of Things". [actas]
Manel Mena Vicente: "Digital Dices: Microservicios en el marco de la Web of Things". [actas]
Ana Paola Montoya Rios: "Modelado y control de la temperatura en un invernadero por medio de reducci on de modelos de alto orden con base en datos reales". [actas]
Ana Paola Montoya Rios: "Modelado y control de la temperatura en un invernadero por medio de reducci on de modelos de alto orden con base en datos reales". [actas]
Juan José Moreno Ridao: "Técnicas de Alto Rendimiento para la Optimización de Planes de Radioterapia de Intensidad Modulada". [actas]
Juan José Moreno Ridao: "Técnicas de Alto Rendimiento para la Optimización de Planes de Radioterapia de Intensidad Modulada". [actas]
Manuel Muñoz-Rodríguez: "Actualización de la plataforma IoT para la agricultura intensiva con MaaS e integración de nuevas plataformas". [actas]
Manuel Muñoz-Rodríguez: "Actualización de la plataforma IoT para la agricultura intensiva con MaaS e integración de nuevas plataformas". [actas]
Juan Jesús Ojeda Castelo: "Interacción Natural: Últimas Publicaciones y el inicio con Deep Learning". [actas]
Juan Jesús Ojeda Castelo: "Interacción Natural: Últimas Publicaciones y el inicio con Deep Learning". [actas]
Luis Ortega López: "Clasificación de cultivos utilizando imágenes multi-espectrales y software eCognition". [actas]
Luis Ortega López: "Clasificación de cultivos utilizando imágenes multi-espectrales y software eCognition". [actas]
Francisco José Orts Gómez: "Un circuito cuántico optimizado para convertir de formato signo-magnitud a complemento a dos". [actas]
Francisco José Orts Gómez: "Un circuito cuántico optimizado para convertir de formato signo-magnitud a complemento a dos". [actas]
Savins Puertas: "Optimización de la similitud de forma y del potencial electrostático utilizando un algoritmo multi-objetivo". [actas]
Savins Puertas: "Optimización de la similitud de forma y del potencial electrostático utilizando un algoritmo multi-objetivo". [actas]
Jerónimo Ramos Teodoro: "Aportaciones al control y gestión de sistemas de producción distribuidos: estado actual de la cuestión y desarrollo de una librería para simulaciones". [actas]
Jerónimo Ramos Teodoro: "Aportaciones al control y gestión de sistemas de producción distribuidos: estado actual de la cuestión y desarrollo de una librería para simulaciones". [actas]
Diego Rodríguez Gracia: "Arquitecturas adaptativas en tiempo de ejecución mediante transformaciones inteligentes basadas en técnicas de soft-computing y desarrollo de software dirigido por modelos". [actas]
Diego Rodríguez Gracia: "Arquitecturas adaptativas en tiempo de ejecución mediante transformaciones inteligentes basadas en técnicas de soft-computing y desarrollo de software dirigido por modelos". [actas]
Enrique Rodriguez Miranda: "Control y modelado de procesos en reactores de microalgas abiertos tipo raceway". [actas]
Enrique Rodriguez Miranda: "Control y modelado de procesos en reactores de microalgas abiertos tipo raceway". [actas]
José Juan Sánchez Hernández: "Transmisión de secuencias de imágenes JPEG2000 usando actualización condicional y compensación de movimiento controlada por el cliente". [actas]
José Juan Sánchez Hernández: "Transmisión de secuencias de imágenes JPEG2000 usando actualización condicional y compensación de movimiento controlada por el cliente". [actas]
Teresa Santamaría López: "Impact of streaming on the increasing demand of modern education and distance". [actas]
Teresa Santamaría López: "Impact of streaming on the increasing demand of modern education and distance". [actas]
Tobar Farias Galo Wilfredo: "Aplicación de la matemática en la criptografía conmutativa y no conmutativa". [actas]
Tobar Farias Galo Wilfredo: "Aplicación de la matemática en la criptografía conmutativa y no conmutativa". [actas]
Trabajos de Investigación Presentados
Trabajos de Investigación Presentados
21 de febrero 2020 (jueves) a las 9:30 h. Sala de Grados de edificio CITE-III (2da planta), Universidad de Almería
Conferencia Invitada
Conferencia Invitada
Diseño de Big data para facilitar la toma decisiones y la comprensión de la información
Diseño de Big data para facilitar la toma decisiones y la comprensión de la información
Paloma Díaz Pérez (Universidad Carlos III)
Paloma Díaz Pérez (Universidad Carlos III)
21 de febrero 2020 (viernes) a las 11:00 h. Sala de Grados de edificio CITE-III (2da planta), Universidad de Almería
Resumen:
Resumen:
Estamos inmersos en una era de producción masiva de datos cuyo volumen excesivo y heterogeneidad hacen difícil extraer información valiosa y, más aún, conocimiento. El principal reto del llamado big data no es tanto algorítmico como humano; el centro no es la inteligencia artificial sino la inteligencia (humana) aumentada. Desde una concepción Engelbartiana de la tecnología, nuestra principal cuestión debería ser cómo podemos aumentar la inteligencia humana con tecnologías que ayuden a filtrar, organizar e interactuar con los datos para responder a las preguntas y necesidades de los humanos de la forma más eficiente y efectiva. No se trata de tomar decisiones por los humanos, sino de facilitar la toma de decisiones informada y racional. En esta charla hablaremos de cómo utilizar algunos enfoques como el modelado semántico o el diseño de la interacción para mejorar el proceso de comprensión de la información y dar soporte a una mejor toma de decisiones.
Estamos inmersos en una era de producción masiva de datos cuyo volumen excesivo y heterogeneidad hacen difícil extraer información valiosa y, más aún, conocimiento. El principal reto del llamado big data no es tanto algorítmico como humano; el centro no es la inteligencia artificial sino la inteligencia (humana) aumentada. Desde una concepción Engelbartiana de la tecnología, nuestra principal cuestión debería ser cómo podemos aumentar la inteligencia humana con tecnologías que ayuden a filtrar, organizar e interactuar con los datos para responder a las preguntas y necesidades de los humanos de la forma más eficiente y efectiva. No se trata de tomar decisiones por los humanos, sino de facilitar la toma de decisiones informada y racional. En esta charla hablaremos de cómo utilizar algunos enfoques como el modelado semántico o el diseño de la interacción para mejorar el proceso de comprensión de la información y dar soporte a una mejor toma de decisiones.
Biografía:
Biografía:
Paloma Díaz es Doctora y Licenciada en Informática por la Universidad Politécnica de Madrid y Catedrática del Dpto. de Informática de la Universidad Carlos III de Madrid, donde dirige la cátedra Telefónica-UC3M en Mujer y Tecnología y la Unidad Académica Digital Living: Cultura, Sociedad, Conocimiento Digital. Desde 1995 es responsable del grupo de investigación en Sistemas Interactivos (DEI LAB) que tiene como objetivo el diseño de sistemas y tecnologías interactivas que mejoren las capacidades de las personas como individuos y como grupos. Sus principales líneas de investigación son la ingeniería de la web y el diseño de la interacción y sus aplicaciones a ámbitos como el aprendizaje y la enseñanza, la cultura, la industria, la salud, la participación ciudadana o a la gestión de emergencias y crisis. Ha dirigido múltiples proyectos nacionales y europeos relacionados con sus líneas de investigación y ha publicado más de 200 contribuciones en revistas, libros y conferencias internacionales. Además de participar en varios comités de programa y editoriales, ha organizado conferencias internacionales como IEEE ICALT 2008, IEEE VLHCC 2010, IS-EUD 2015 o ISCRAM-MED 2016. Ha sido investigadora visitante en el College of Information Science and Technology de Penn State University (EE.UU.) en el MAGIC Lab de University of British Columbia (Canadá) y el Visualization Institute of Stuttgart University (Alemania). En su faceta de gestión fue Gestora del Plan Nacional de Tecnologías de Servicios para la Sociedad de la Información del MICINN, Vicerrectora del Campus de Colmenarejo de la UC3M y Directora del Programa de Doctorado en Ciencia y Tecnología Informática entre otros cargos.
Paloma Díaz es Doctora y Licenciada en Informática por la Universidad Politécnica de Madrid y Catedrática del Dpto. de Informática de la Universidad Carlos III de Madrid, donde dirige la cátedra Telefónica-UC3M en Mujer y Tecnología y la Unidad Académica Digital Living: Cultura, Sociedad, Conocimiento Digital. Desde 1995 es responsable del grupo de investigación en Sistemas Interactivos (DEI LAB) que tiene como objetivo el diseño de sistemas y tecnologías interactivas que mejoren las capacidades de las personas como individuos y como grupos. Sus principales líneas de investigación son la ingeniería de la web y el diseño de la interacción y sus aplicaciones a ámbitos como el aprendizaje y la enseñanza, la cultura, la industria, la salud, la participación ciudadana o a la gestión de emergencias y crisis. Ha dirigido múltiples proyectos nacionales y europeos relacionados con sus líneas de investigación y ha publicado más de 200 contribuciones en revistas, libros y conferencias internacionales. Además de participar en varios comités de programa y editoriales, ha organizado conferencias internacionales como IEEE ICALT 2008, IEEE VLHCC 2010, IS-EUD 2015 o ISCRAM-MED 2016. Ha sido investigadora visitante en el College of Information Science and Technology de Penn State University (EE.UU.) en el MAGIC Lab de University of British Columbia (Canadá) y el Visualization Institute of Stuttgart University (Alemania). En su faceta de gestión fue Gestora del Plan Nacional de Tecnologías de Servicios para la Sociedad de la Información del MICINN, Vicerrectora del Campus de Colmenarejo de la UC3M y Directora del Programa de Doctorado en Ciencia y Tecnología Informática entre otros cargos.
Fechas
Fechas
- 25 de enero de 2020: Propuesta de TITULO + ABSTRACT
- 25 de enero de 2020: Propuesta de TITULO + ABSTRACT
- 14 de febrero de 2020, envío del informe
- 14 de febrero de 2020, envío del informe
- 21 de febrero de 2020, celebración del evento, exposición de los trabajos
- 21 de febrero de 2020, celebración del evento, exposición de los trabajos
Normas
Normas
Normas para la preparación de los informes
Normas para la preparación de los informes
Estilo LNCS de Springer (preferiblemente en LaTeX).
Estilo LNCS de Springer (preferiblemente en LaTeX).
El artículo deberá ser enviado a la dirección "luis.iribarne@ual.es" en un único archivo en formato PDF: sin bloquear ni proteger, y sin encabezado, pie, ni paginación.
El artículo deberá ser enviado a la dirección "luis.iribarne@ual.es" en un único archivo en formato PDF: sin bloquear ni proteger, y sin encabezado, pie, ni paginación.
Longitud, entre un mínimo de 5 y máximo de 10 páginas.
Longitud, entre un mínimo de 5 y máximo de 10 páginas.
Estructura del informe deberá ser similar al de un paper: Título, autor (el del doctorando solo), resumen (no más de 200 palabras), introducción, avances, conclusiones, referencias (usadas para el informe y citadas a lo largo del mismo).
Estructura del informe deberá ser similar al de un paper: Título, autor (el del doctorando solo), resumen (no más de 200 palabras), introducción, avances, conclusiones, referencias (usadas para el informe y citadas a lo largo del mismo).
Idioma: preferiblemente en español, siendo posible también en inglés (opcional).
Idioma: preferiblemente en español, siendo posible también en inglés (opcional).
Normas para la preparación de las presentaciones
Normas para la preparación de las presentaciones
Pendientes de publicar
Pendientes de publicar
Objetivos
Objetivos
Fomento a la divulgación de la investigación entre los actores del programa de doctorado (doctorandos, directores, interesados), así como entre las personas interesadas en la investigación en Informática.
Fomento a la divulgación de la investigación entre los actores del programa de doctorado (doctorandos, directores, interesados), así como entre las personas interesadas en la investigación en Informática.
Transferencia de conocimiento. Publicación de las actas de las jornadas en el repositorio institucional.
Transferencia de conocimiento. Publicación de las actas de las jornadas en el repositorio institucional.
Colaboración interdisciplinar. Facilitar la colaboración entre miembros y líneas de investigación del programa de doctorado, y entre las personas interesadas en la investigación en Informática.
Colaboración interdisciplinar. Facilitar la colaboración entre miembros y líneas de investigación del programa de doctorado, y entre las personas interesadas en la investigación en Informática.
Trabajos enviados
Trabajos enviados
Darwin Alulema
Darwin Alulema
Una metodología basada en modelos y servicios para la integración de sistemas IoT
Una metodología basada en modelos y servicios para la integración de sistemas IoT
Actualmente vivimos en continua interacción con personas y cosas, dando lugar a la era del Internet de las Cosas (IoT). Esto ha llevado a la creación de nuevas aplicaciones en diversos campos, como el seguimiento de activos y existencias, transporte, redes eléctricas, automatización industrial, hogares inteligentes, agricultura o deportes, entre otros. Sin embargo, el creciente número de plataformas y así como la variedad de dispositivos finales hacen que el desarrollo de aplicaciones sea una tarea difícil que requiere mucho tiempo. Esta diversidad tiene la dificultad de tener que coordinar la interacción entre dispositivos y plataformas heterogéneas. Por consiguiente, se requiere que los desarrolladores deban tener un alto grado de conocimiento de cada una de las tecnologías empleadas. Una tecnología que se usa actualmente para resolver estos problemas es el modelado, porque puede mejorar la reutilización de diferentes elementos para simplificar el trabajo de los desarrolladores. La ingeniería basada en modelos (MDE) sugiere un proceso de desarrollo basado en la creación y transformación de modelos. Por este motivo, proponemos una solución basada en modelos para generar código automáticamente. Nos centramos en un lenguaje específico de dominio (DSL), un editor gráfico y una transformación de modelo a texto (M2T) para la generación de código. Nuestra propuesta se compone de un modelo para la integración de punto a punto en aplicaciones IoT compuestas por tres capas: (a) Física, la cual corresponde a los objetos físicos (controlador, sensor y actuador), (b) Lógica, es el puente que permite la integración de servicios empleando una cola MQTT y los servicios web REST, y (c) Aplicación, en la cual se establece una interfaz de usuario para la DTV (Digital TV). Para el efecto se ha desarrollado un metamodelo, un editor gráfico y un generador de código que permiten al desarrollador diseñar sistemas IoT con componentes heterogéneos sin tener un conocimiento profundo de cada plataforma de hardware y software. Para validar nuestra propuesta se ha desarrollado un escenario de Smart Home, con una serie de sensores y actuadores que al combinarse presentan un comportamiento complejo. Las transformaciones M2T generan código para las plataformas de Arduino, Node-red, Ballerina y NCL-Lua. Para demostrar este enfoque, se ha diseñado un escenario para un hogar inteligente (con diferentes sensores y actuadores), así como una aplicación para DTV, que permite al sistema monitorizar el escenario. Además, se evalúa la propuesta por medio de dos instrumentos, SUS (System Usability Scale) y PANAS (Positive Affect Negative Affect Scale), para determinar el grado de aceptación y usabilidad de nuestra herramienta, y contrastamos nuestros resultados con la estimación por puntos de función.
Actualmente vivimos en continua interacción con personas y cosas, dando lugar a la era del Internet de las Cosas (IoT). Esto ha llevado a la creación de nuevas aplicaciones en diversos campos, como el seguimiento de activos y existencias, transporte, redes eléctricas, automatización industrial, hogares inteligentes, agricultura o deportes, entre otros. Sin embargo, el creciente número de plataformas y así como la variedad de dispositivos finales hacen que el desarrollo de aplicaciones sea una tarea difícil que requiere mucho tiempo. Esta diversidad tiene la dificultad de tener que coordinar la interacción entre dispositivos y plataformas heterogéneas. Por consiguiente, se requiere que los desarrolladores deban tener un alto grado de conocimiento de cada una de las tecnologías empleadas. Una tecnología que se usa actualmente para resolver estos problemas es el modelado, porque puede mejorar la reutilización de diferentes elementos para simplificar el trabajo de los desarrolladores. La ingeniería basada en modelos (MDE) sugiere un proceso de desarrollo basado en la creación y transformación de modelos. Por este motivo, proponemos una solución basada en modelos para generar código automáticamente. Nos centramos en un lenguaje específico de dominio (DSL), un editor gráfico y una transformación de modelo a texto (M2T) para la generación de código. Nuestra propuesta se compone de un modelo para la integración de punto a punto en aplicaciones IoT compuestas por tres capas: (a) Física, la cual corresponde a los objetos físicos (controlador, sensor y actuador), (b) Lógica, es el puente que permite la integración de servicios empleando una cola MQTT y los servicios web REST, y (c) Aplicación, en la cual se establece una interfaz de usuario para la DTV (Digital TV). Para el efecto se ha desarrollado un metamodelo, un editor gráfico y un generador de código que permiten al desarrollador diseñar sistemas IoT con componentes heterogéneos sin tener un conocimiento profundo de cada plataforma de hardware y software. Para validar nuestra propuesta se ha desarrollado un escenario de Smart Home, con una serie de sensores y actuadores que al combinarse presentan un comportamiento complejo. Las transformaciones M2T generan código para las plataformas de Arduino, Node-red, Ballerina y NCL-Lua. Para demostrar este enfoque, se ha diseñado un escenario para un hogar inteligente (con diferentes sensores y actuadores), así como una aplicación para DTV, que permite al sistema monitorizar el escenario. Además, se evalúa la propuesta por medio de dos instrumentos, SUS (System Usability Scale) y PANAS (Positive Affect Negative Affect Scale), para determinar el grado de aceptación y usabilidad de nuestra herramienta, y contrastamos nuestros resultados con la estimación por puntos de función.
Jose Jorge Carreño Zagarra
Jose Jorge Carreño Zagarra
Control óptimo basado en rechazo activo de perturbaciones para sistemas inciertos
Control óptimo basado en rechazo activo de perturbaciones para sistemas inciertos
En este trabajo se desarrolla un esquema de control óptimo basado en rechazo activo de perturbaciones para el seguimiento robusto de referencias ante perturbaciones e incertidumbre paramétrica en el modelo, teniendo en cuenta limitaciones clásicas como la saturación de los actuadores. El esquema de control propuesto es capaz de regular cualquier sistema controlable lineal a partir de la salida con ayuda de un filtro bien ajustado y una combinación lineal en cascada adecuada de los estados internos de dicho filtro. Los parámetros del controlador son sintonizados mediante un procedimiento de optimización que considera el nivel de robustez deseado mediante la fijación de la sensibilidad máxima del sistema de control en lazo cerrado. El esquema de control robusto es validado por medio de la simulación de un proceso de producción de microalgas de un fotobiorreactor tipo Raceway y es comparado con un controlador clásico con acción feedforward. Los resultados de simulación demuestran que el algoritmo de control evaluado mejora significativamente la precisión de la regulación del pH con respecto al controlador clásico, logrando con ello una influencia positiva en la producción de biomasa.
En este trabajo se desarrolla un esquema de control óptimo basado en rechazo activo de perturbaciones para el seguimiento robusto de referencias ante perturbaciones e incertidumbre paramétrica en el modelo, teniendo en cuenta limitaciones clásicas como la saturación de los actuadores. El esquema de control propuesto es capaz de regular cualquier sistema controlable lineal a partir de la salida con ayuda de un filtro bien ajustado y una combinación lineal en cascada adecuada de los estados internos de dicho filtro. Los parámetros del controlador son sintonizados mediante un procedimiento de optimización que considera el nivel de robustez deseado mediante la fijación de la sensibilidad máxima del sistema de control en lazo cerrado. El esquema de control robusto es validado por medio de la simulación de un proceso de producción de microalgas de un fotobiorreactor tipo Raceway y es comparado con un controlador clásico con acción feedforward. Los resultados de simulación demuestran que el algoritmo de control evaluado mejora significativamente la precisión de la regulación del pH con respecto al controlador clásico, logrando con ello una influencia positiva en la producción de biomasa.
Francisco Jose de Haro Olmo
Francisco Jose de Haro Olmo
Revisión sistemática sobre blockchain desde la perspectiva de la privacidad y la anonimización.
Revisión sistemática sobre blockchain desde la perspectiva de la privacidad y la anonimización.
En la actualidad uno de los activos mas importantes que existen son los datos y la información que de ellos se deriva, que unido a la fecha límite para la implantación del Reglamento General de Protección de Datos (RGPD) da lugar a la necesidad de tomar conciencia de la importancia que tiene el control sobre los datos y quién puede acceder a los mismos que en la mayoría de ocasiones se encuentran accesibles de una u otra forma a través de internet. Téngase en cuenta el auge del internet de las cosas (IoT), sistemas SCADA y la Industria 4.0, retos para la seguridad de nuestros tiempos. Por otro lado ponemos el foco en blockchain, lo que supone una tecnología emergente que se aplica, no solo como base de la moneda digital en sus múltiples variantes, sino también a los contratos inteligentes así como otras funcionalidades como la trazabilidad de productos y servicios. En este trabajo llevamos a cabo una revisión sistemática de bibliografía con el fin de conocer los mecanismos empleados para la implementación de la privacidad y la atomización mediante blockchain.
En la actualidad uno de los activos mas importantes que existen son los datos y la información que de ellos se deriva, que unido a la fecha límite para la implantación del Reglamento General de Protección de Datos (RGPD) da lugar a la necesidad de tomar conciencia de la importancia que tiene el control sobre los datos y quién puede acceder a los mismos que en la mayoría de ocasiones se encuentran accesibles de una u otra forma a través de internet. Téngase en cuenta el auge del internet de las cosas (IoT), sistemas SCADA y la Industria 4.0, retos para la seguridad de nuestros tiempos. Por otro lado ponemos el foco en blockchain, lo que supone una tecnología emergente que se aplica, no solo como base de la moneda digital en sus múltiples variantes, sino también a los contratos inteligentes así como otras funcionalidades como la trazabilidad de productos y servicios. En este trabajo llevamos a cabo una revisión sistemática de bibliografía con el fin de conocer los mecanismos empleados para la implementación de la privacidad y la atomización mediante blockchain.
Francisco García García
Francisco García García
Procesamiento eficiente de consultas y técnicas de particionado en SpatialHadoop
Procesamiento eficiente de consultas y técnicas de particionado en SpatialHadoop
Hoy dia con el uso omnipresente de aplicaciones que utilizan datos espaciales y el gran tamaño que presentan los datos que estas utilizan y generan, es realmente difícil ejecutar consultas espaciales de forma eficiente en los entornos centralizados tradicionales. Debido a esto, el uso de sistemas distribuidos se ha popularizado en los últimos años y ha motivado la aparición de nuevas tecnologías que utilizan clusters de ordenadores que no comparten nada, surgiendo los sistemas de gestión de datos espaciales distribuidos (SGDED). SpatialHadoop es un SGDED, que mediante el framework MapReduce, utiliza técnicas de indexado que particionan los conjuntos de datos espaciales a lo largo de varias máquinas para mejorar el procesamiento de consultas espaciales respecto a otros sistemas basados en Hadoop. En este trabajo se presentan los resultados de analizar e implementar algoritmos paralelos y distribuidos para dos de las consultas de join basadas en distancias más estudiadas, K Closest Pair Query (KCPQ) y K Nearest Neighbours Join Query (KNNJQ), y su mejora mediante el uso de nuevas técnicas de particionado basadas en distancias (particionado basado en diagramas de Voronoi). Además, se presenta el diseño e implementación de MRSLICE, un nuevo algoritmo MapReduce para la consulta Reverse K-Nearest Neighbor (RKNN) basado en el algoritmo para entornos centralizados SLICE. Por último, se presentan algunas técnicas aplicadas en un trabajo en curso, que mejoran y adaptan a SpatialHadoop la consulta Group K-Nearest Neighbor (GKNN) de Hadoop a SpatialHadoop.
Hoy dia con el uso omnipresente de aplicaciones que utilizan datos espaciales y el gran tamaño que presentan los datos que estas utilizan y generan, es realmente difícil ejecutar consultas espaciales de forma eficiente en los entornos centralizados tradicionales. Debido a esto, el uso de sistemas distribuidos se ha popularizado en los últimos años y ha motivado la aparición de nuevas tecnologías que utilizan clusters de ordenadores que no comparten nada, surgiendo los sistemas de gestión de datos espaciales distribuidos (SGDED). SpatialHadoop es un SGDED, que mediante el framework MapReduce, utiliza técnicas de indexado que particionan los conjuntos de datos espaciales a lo largo de varias máquinas para mejorar el procesamiento de consultas espaciales respecto a otros sistemas basados en Hadoop. En este trabajo se presentan los resultados de analizar e implementar algoritmos paralelos y distribuidos para dos de las consultas de join basadas en distancias más estudiadas, K Closest Pair Query (KCPQ) y K Nearest Neighbours Join Query (KNNJQ), y su mejora mediante el uso de nuevas técnicas de particionado basadas en distancias (particionado basado en diagramas de Voronoi). Además, se presenta el diseño e implementación de MRSLICE, un nuevo algoritmo MapReduce para la consulta Reverse K-Nearest Neighbor (RKNN) basado en el algoritmo para entornos centralizados SLICE. Por último, se presentan algunas técnicas aplicadas en un trabajo en curso, que mejoran y adaptan a SpatialHadoop la consulta Group K-Nearest Neighbor (GKNN) de Hadoop a SpatialHadoop.
Juan Diego Gil Vergel
Juan Diego Gil Vergel
Sistemas de control para las fases de arranque y operación en plantas de destilación solar por membranas a escala industrial
Sistemas de control para las fases de arranque y operación en plantas de destilación solar por membranas a escala industrial
La destilación por membranas alimentadas con energía solar(Solar Membrane Distillation, SMD) es una tecnología de desalación em fase de investigación, adecuada para el desarrollo de plantas autónomas capaces de cubrir requerimientos medios-bajos de demanda de agua.Esta tesis tiene como objetivo la aportación de contribuciones, desde el punto de vista de modelado control y optimización, que supongan un avance hacia la comercialización de la tecnología de destilación por membranas. En este trabajo, se presenta una revisión de los avances realizados en el año 2019 en el marco de la presente tesis, entre los cuales se pueden destacar: i) desarrollo de un controlador jerárquico de dos capas para mejorar la fase de arranque de procesos alimentados con campos solares térmicos que incluyen sistemas de almacenamiento directo, comoes el caso de la planta SMD que se usa como referencia en la tesis, ii)desarrollo de un controlador predictivo basado en modelo distribuido(Distributed Model Predictive Control, DMPC) para la operación eficiente del modulo de desalación de una planta SMD a escala industrial,y iii) desarrollo de un controlador predictivo basado en modelo (ModelPredictive Control, MPC) para la gestión de una red inteligente que incluye un grupo de invernaderos, una instalación SMD y la red de agua pública.
La destilación por membranas alimentadas con energía solar(Solar Membrane Distillation, SMD) es una tecnología de desalación em fase de investigación, adecuada para el desarrollo de plantas autónomas capaces de cubrir requerimientos medios-bajos de demanda de agua.Esta tesis tiene como objetivo la aportación de contribuciones, desde el punto de vista de modelado control y optimización, que supongan un avance hacia la comercialización de la tecnología de destilación por membranas. En este trabajo, se presenta una revisión de los avances realizados en el año 2019 en el marco de la presente tesis, entre los cuales se pueden destacar: i) desarrollo de un controlador jerárquico de dos capas para mejorar la fase de arranque de procesos alimentados con campos solares térmicos que incluyen sistemas de almacenamiento directo, comoes el caso de la planta SMD que se usa como referencia en la tesis, ii)desarrollo de un controlador predictivo basado en modelo distribuido(Distributed Model Predictive Control, DMPC) para la operación eficiente del modulo de desalación de una planta SMD a escala industrial,y iii) desarrollo de un controlador predictivo basado en modelo (ModelPredictive Control, MPC) para la gestión de una red inteligente que incluye un grupo de invernaderos, una instalación SMD y la red de agua pública.
Francisco Jose Gomez Navarro
Francisco Jose Gomez Navarro
Avances en el Modelado y Simulación de un Nuevo Concepto de Vehículo Urbano Eléctrico Ligero. Almacenamiento y Distribucion de Energia.
Avances en el Modelado y Simulación de un Nuevo Concepto de Vehículo Urbano Eléctrico Ligero. Almacenamiento y Distribucion de Energia.
El presente trabajo tiene por objeto, dar a conocer el avance del proyecto de investigación sobre un nuevo concepto de vehículo eléctrico ligero, que aprovecha las diversas fuentes de energía renovable disponibles, optimizando su uso, al objeto de maximizar la reducción en la emisión de gases de efecto invernadero ligados al transporte urbano de personas y bienes. Durante este periodo, con la ayuda del lenguaje de modelado Modélica y la herramienta de modelado Dymola, se han desarrollado los modelos correspondientes al almacenamiento y distribución de energía del vehículo. Se ha desarrollado, validado y publicado un modelo dinámico que simula adecuadamente el comportamiento de baterías del tipo Litio-Ferrofosfato (LiF ePO4) y que supone una aportación significativa respecto a los modelos de baterías Ion-Litio (LiIon) encontrados en la bibliografía y que son de uso común en los vehículos eléctricos. Igualmente se ha desarrollado, validado y propuesto para publicación un modelo dinámico lineal para convertidor CC/CC bidireccional que permite la simulación del comportamiento de los distintos variadores que conectan los elementos generadores y consumidores de energía del vehículo al bus de energía en unos tiempos abordables.
El presente trabajo tiene por objeto, dar a conocer el avance del proyecto de investigación sobre un nuevo concepto de vehículo eléctrico ligero, que aprovecha las diversas fuentes de energía renovable disponibles, optimizando su uso, al objeto de maximizar la reducción en la emisión de gases de efecto invernadero ligados al transporte urbano de personas y bienes. Durante este periodo, con la ayuda del lenguaje de modelado Modélica y la herramienta de modelado Dymola, se han desarrollado los modelos correspondientes al almacenamiento y distribución de energía del vehículo. Se ha desarrollado, validado y publicado un modelo dinámico que simula adecuadamente el comportamiento de baterías del tipo Litio-Ferrofosfato (LiF ePO4) y que supone una aportación significativa respecto a los modelos de baterías Ion-Litio (LiIon) encontrados en la bibliografía y que son de uso común en los vehículos eléctricos. Igualmente se ha desarrollado, validado y propuesto para publicación un modelo dinámico lineal para convertidor CC/CC bidireccional que permite la simulación del comportamiento de los distintos variadores que conectan los elementos generadores y consumidores de energía del vehículo al bus de energía en unos tiempos abordables.
Esther González Revuelta
Esther González Revuelta
Análisis de demandas y expectativas del paciente frente a los nuevos modelos digitales de relación médico-paciente. Desarrollo de herramientas que facilitan la información y comunicación.
Análisis de demandas y expectativas del paciente frente a los nuevos modelos digitales de relación médico-paciente. Desarrollo de herramientas que facilitan la información y comunicación.
El acceso del paciente a su Historia Clínica Electrónica mediante el uso de herramientas informáticas que posibiliten la disponibilidad de sus datos clínicos y de su proceso asistencial inmediato de forma on-line es algo cada vez más demandado e incluso utilizado. Conocer la opinión de los pacientes en cuanto a la sustitución de los métodos tradicionales de comunicación y atención por parte del profesional, sustituyendo una atención personal in-situ por otra en remoto y virtual es importante, servirá como base para la toma de decisiones por parte de los propios servicios de salud y para el abordaje de actuaciones orientadas a ofrecer una mejor calidad en la atención sanitaria. El avance en el desarrollo y puesta en marcha de herramientas informáticas tipo Apps que aporten mayor autonomía al paciente e incremente el uso de dispositivos móviles, apostando por las nuevas tecnologías para fomentar la interacción digital, son retos que nos planteamos y sobre los que estamos trabajando y forman parte del objeto de estudio y avance de este trabajo.
El acceso del paciente a su Historia Clínica Electrónica mediante el uso de herramientas informáticas que posibiliten la disponibilidad de sus datos clínicos y de su proceso asistencial inmediato de forma on-line es algo cada vez más demandado e incluso utilizado. Conocer la opinión de los pacientes en cuanto a la sustitución de los métodos tradicionales de comunicación y atención por parte del profesional, sustituyendo una atención personal in-situ por otra en remoto y virtual es importante, servirá como base para la toma de decisiones por parte de los propios servicios de salud y para el abordaje de actuaciones orientadas a ofrecer una mejor calidad en la atención sanitaria. El avance en el desarrollo y puesta en marcha de herramientas informáticas tipo Apps que aporten mayor autonomía al paciente e incremente el uso de dispositivos móviles, apostando por las nuevas tecnologías para fomentar la interacción digital, son retos que nos planteamos y sobre los que estamos trabajando y forman parte del objeto de estudio y avance de este trabajo.
Ángeles Hoyo
Ángeles Hoyo
Contribuciones de control robusto para sistemas sometidos a perturbaciones
Contribuciones de control robusto para sistemas sometidos a perturbaciones
Desde un punto de vista de control de procesos, los problemas de control más comunes en la industria son relativos al problema de regulación o rechazo a perturbaciones, errores de modelado, no linealidades y retardos. Generalmente las estrategias de control clásicas utilizadas para solucionar estos problemas (feedback linearization, control feedforward, control en cascada...) tienen en cuenta solo el modelo lineal cuando en la realidad, siempre hay fuentes de error que no hacen posible que al aplicarlo se obtenga el rendimiento deseado. Por ello se requiere que, en todas estas estrategias, seamos capaces de amoldar las y modificarlas para darle ese grado de robustez del cual carecen. Esta tesis tiene como objetivo abordar estos cuatro problemas con estrategias clásicas de control, analizando su robustez y validando su desempeño tanto en simulación como en plantas experimentales (un invernadero y un fotobiorreactor). Este trabajo presenta una revisión de los avances realizados en el curso 2018/2019 en el marco de la presente tesis.
Desde un punto de vista de control de procesos, los problemas de control más comunes en la industria son relativos al problema de regulación o rechazo a perturbaciones, errores de modelado, no linealidades y retardos. Generalmente las estrategias de control clásicas utilizadas para solucionar estos problemas (feedback linearization, control feedforward, control en cascada...) tienen en cuenta solo el modelo lineal cuando en la realidad, siempre hay fuentes de error que no hacen posible que al aplicarlo se obtenga el rendimiento deseado. Por ello se requiere que, en todas estas estrategias, seamos capaces de amoldar las y modificarlas para darle ese grado de robustez del cual carecen. Esta tesis tiene como objetivo abordar estos cuatro problemas con estrategias clásicas de control, analizando su robustez y validando su desempeño tanto en simulación como en plantas experimentales (un invernadero y un fotobiorreactor). Este trabajo presenta una revisión de los avances realizados en el curso 2018/2019 en el marco de la presente tesis.
Safwan Mawlood Hussein
Safwan Mawlood Hussein
Distribución segura de claves en redes de sensores para IoT
Distribución segura de claves en redes de sensores para IoT
La profundización de la investigación y desarrollo en el campo de los sistemas embebido ha propiciado que el paradigma de lo que se conoce como Internet de las Cosas (IoT) está ganando un gran impulso. Esta tecnología se está incrementando el uso de aplicaciones que hacen uso de dispositivos conectados de forma continua proporcionando y recibiendo información. IoT se construye sobre redes de sensores que permiten una gran variedad de soluciones para aplicaciones en muy diversos campos, tales como la sanidad, la industria, la defensa, etc. Las comunicaciones inalámbricas son indispensables para aprovechar estas redes de sensores, pero esto implica nuevos requerimientos para la seguridad y la privacidad de las comunicaciones. La seguridad en redes inalámbricas (WSN) es, por tanto, un desafío que ha de ser abordado para extender el uso de las aplicaciones de IoT. Además, hay que tener en cuenta las limitaciones de la capacidad de cómputo de los sensores, así como la energía que se consume. Esto ha hecho que las técnicas utilizadas en redes convencionales no sean aplicables en general. Ante tal escenario,los criptosistemas de tipo simétrico son preferibles, aunque aparece entonces el problema de la distribución de clave. Se propone, de este modo en este trabajo un método de distribución de claves en grupo escalable basado en curvas elípticas. El intercambio inicial de clave se lleva a cabo haciendo uso de información pública de cada uno de los sensores y, en tan solo dos rondas de comunicaciones. Las actualizaciones de clave siguientes se llevan a cabo mediante el uso de un único mensaje preservando la seguridad respecto a estados anteriores y posteriores de la red. Its technology widespreads.
La profundización de la investigación y desarrollo en el campo de los sistemas embebido ha propiciado que el paradigma de lo que se conoce como Internet de las Cosas (IoT) está ganando un gran impulso. Esta tecnología se está incrementando el uso de aplicaciones que hacen uso de dispositivos conectados de forma continua proporcionando y recibiendo información. IoT se construye sobre redes de sensores que permiten una gran variedad de soluciones para aplicaciones en muy diversos campos, tales como la sanidad, la industria, la defensa, etc. Las comunicaciones inalámbricas son indispensables para aprovechar estas redes de sensores, pero esto implica nuevos requerimientos para la seguridad y la privacidad de las comunicaciones. La seguridad en redes inalámbricas (WSN) es, por tanto, un desafío que ha de ser abordado para extender el uso de las aplicaciones de IoT. Además, hay que tener en cuenta las limitaciones de la capacidad de cómputo de los sensores, así como la energía que se consume. Esto ha hecho que las técnicas utilizadas en redes convencionales no sean aplicables en general. Ante tal escenario,los criptosistemas de tipo simétrico son preferibles, aunque aparece entonces el problema de la distribución de clave. Se propone, de este modo en este trabajo un método de distribución de claves en grupo escalable basado en curvas elípticas. El intercambio inicial de clave se lleva a cabo haciendo uso de información pública de cada uno de los sensores y, en tan solo dos rondas de comunicaciones. Las actualizaciones de clave siguientes se llevan a cabo mediante el uso de un único mensaje preservando la seguridad respecto a estados anteriores y posteriores de la red. Its technology widespreads.
Manel Mena Vicente
Manel Mena Vicente
Digital Dices: Microservicios en el marco de la Web of Things
Digital Dices: Microservicios en el marco de la Web of Things
La comunicación con distintos dispositivos de Internet of Things (IoT) no es trivial, ya que en este ecosistema conviven dispositivos con multitud de protocolos de comunicación y de transferencia de datos muy heterogéneos. La Web of Things (WoT) intenta aunar todos estos dispositivos en un marco de referencia desarrollado y gestionado por el World Wide Web Consortium (W3C) que se basa en establecer una capa de abstracción basada en tecnologías web. WoT ofrece un esquema de definición de dispositivos IoT representados por las interacciones que estos pueden realizar, pero no deja de representar eso, un modelo de definición de dispositivos. Por otro lado, los dispositivos IoT suelen presentar una serie de limitaciones, sobre todo en cuanto potencia de cálculo y/o cantidad de memoria. Para intentar solventar tanto el problema de interoperabilidad, así como paliar el contratiempo de la falta de rendimiento, desarrollamos el concepto de Digital Dice (DD). Digital Dice es una implementación de parte del marco establecido por la WoT basándonos en microservicios, lo cual proporciona una serie de ventajas. Entre las ventajas destacan la escalabilidad, dado que podemos replicar y/o apagar instancias cuando sea requerido por el sistema, y usabilidad, dado que establecemos un patrón y lenguaje de comunicación común a los diferentes tipos de dispositivos que estamos representando.
La comunicación con distintos dispositivos de Internet of Things (IoT) no es trivial, ya que en este ecosistema conviven dispositivos con multitud de protocolos de comunicación y de transferencia de datos muy heterogéneos. La Web of Things (WoT) intenta aunar todos estos dispositivos en un marco de referencia desarrollado y gestionado por el World Wide Web Consortium (W3C) que se basa en establecer una capa de abstracción basada en tecnologías web. WoT ofrece un esquema de definición de dispositivos IoT representados por las interacciones que estos pueden realizar, pero no deja de representar eso, un modelo de definición de dispositivos. Por otro lado, los dispositivos IoT suelen presentar una serie de limitaciones, sobre todo en cuanto potencia de cálculo y/o cantidad de memoria. Para intentar solventar tanto el problema de interoperabilidad, así como paliar el contratiempo de la falta de rendimiento, desarrollamos el concepto de Digital Dice (DD). Digital Dice es una implementación de parte del marco establecido por la WoT basándonos en microservicios, lo cual proporciona una serie de ventajas. Entre las ventajas destacan la escalabilidad, dado que podemos replicar y/o apagar instancias cuando sea requerido por el sistema, y usabilidad, dado que establecemos un patrón y lenguaje de comunicación común a los diferentes tipos de dispositivos que estamos representando.
Ana Paola Montoya Rios
Ana Paola Montoya Rios
Modelado y control de la temperatura en un invernadero por medio de reducci on de modelos de alto orden con base en datos reales.
Modelado y control de la temperatura en un invernadero por medio de reducci on de modelos de alto orden con base en datos reales.
Con el fin de aplicar técnicas modernas para el control de la temperatura del aire en un invernadero, se hace necesario contar con modelos que describan el comportamiento dinámico de este. Se obtuvieron modelos reducidos para el dise~no de controladores con base en datos reales. Se aplicó la técnica de identificación de sistemas para la obtención de modelos autorregresivos de alto orden tipo MISO, para describir el comportamiento din amico de la temperatura del aire al interior de un invernadero y su correlación con otras variables ambientales. El modelo resultante es reducido empleando análisis transitorio. El modelo fue validado contra datos reales presentando una media del error inferior 0.7 C y un ajuste superior al 91%. Dicho modelo es empleado para el diseño de un controlador tipo PI y tres controladores por adelanto para la compensación de la las perturbaciones. Los controladores fueron probados en simulación mostrando buen desempeño.
Con el fin de aplicar técnicas modernas para el control de la temperatura del aire en un invernadero, se hace necesario contar con modelos que describan el comportamiento dinámico de este. Se obtuvieron modelos reducidos para el dise~no de controladores con base en datos reales. Se aplicó la técnica de identificación de sistemas para la obtención de modelos autorregresivos de alto orden tipo MISO, para describir el comportamiento din amico de la temperatura del aire al interior de un invernadero y su correlación con otras variables ambientales. El modelo resultante es reducido empleando análisis transitorio. El modelo fue validado contra datos reales presentando una media del error inferior 0.7 C y un ajuste superior al 91%. Dicho modelo es empleado para el diseño de un controlador tipo PI y tres controladores por adelanto para la compensación de la las perturbaciones. Los controladores fueron probados en simulación mostrando buen desempeño.
Juan José Moreno Ridao
Juan José Moreno Ridao
Tecnicas de Alto Rendimiento para la Optimización de Planes de Radioterapia de Intensidad Modulada
Tecnicas de Alto Rendimiento para la Optimización de Planes de Radioterapia de Intensidad Modulada
La Radioterapia de Intensidad Modulada (IMRT) es una técnica común para el tratamiento del cáncer que permite controlar con precisión la geometría e intensidad de los haces de radiación. El objetivo de la planificación en IMRT es depositar dosis prescritas a tejidos tumorales, minimizando al máximo la dosis recibida por los órganos y tejidos sanos que los rodean. En el planteamiento estándar de optimización de los planes para IMRT, las variables de decisión representan los perfiles bidimensionales de intensidad de haces de radiación orientados a diferentes ángulos del paciente. La dosis depositada en el cuerpo del paciente se modela por una matriz dispersa de miles de columnas (la resolución de los perfiles de intensidad) y cientos de miles de filas (la resolución del modelo que representa al paciente). Debido a esto, una gran parte del tiempo requerido para la optimización se consume en operaciones con matrices dispersas. En este trabajo exploramos la efectividad de un método basado en descenso por gradiente para la generación de planes IMRT combinado con técnicas de computación de alto rendimiento. De esta forma, tenemos la capacidad de generar múltiples planes alternativos en un tiempo limitado, dando a los radiólogos una mayor libertad para explorar diferentes estrategias de planeo.
La Radioterapia de Intensidad Modulada (IMRT) es una técnica común para el tratamiento del cáncer que permite controlar con precisión la geometría e intensidad de los haces de radiación. El objetivo de la planificación en IMRT es depositar dosis prescritas a tejidos tumorales, minimizando al máximo la dosis recibida por los órganos y tejidos sanos que los rodean. En el planteamiento estándar de optimización de los planes para IMRT, las variables de decisión representan los perfiles bidimensionales de intensidad de haces de radiación orientados a diferentes ángulos del paciente. La dosis depositada en el cuerpo del paciente se modela por una matriz dispersa de miles de columnas (la resolución de los perfiles de intensidad) y cientos de miles de filas (la resolución del modelo que representa al paciente). Debido a esto, una gran parte del tiempo requerido para la optimización se consume en operaciones con matrices dispersas. En este trabajo exploramos la efectividad de un método basado en descenso por gradiente para la generación de planes IMRT combinado con técnicas de computación de alto rendimiento. De esta forma, tenemos la capacidad de generar múltiples planes alternativos en un tiempo limitado, dando a los radiólogos una mayor libertad para explorar diferentes estrategias de planeo.
Manuel Muñoz-Rodríguez
Manuel Muñoz-Rodríguez
Actualización de la plataforma IoT para la agricultura intensiva con MaaS e integración de nuevas plataformas
Actualización de la plataforma IoT para la agricultura intensiva con MaaS e integración de nuevas plataformas
El siguiente articulo describe los avances obtenidos durante el año 2019 relacionados con la temática de la tesis. Un nuevo término (GMaaS) ha sido desarrollado durante este último año, el cual está basado en modelos de invernaderos como servicio. Esta solución en la que los modelos están disponibles en la nube como servicios en línea y sin ninguna dependencia de software/dispositivos permite acceder a los modelos de clima, crecimiento de cultivos y riego a través de un servicio REST API. Los modelos pueden ser solicitados para diferentes objetivos: como herramienta de simulación donde las entradas del modelo pueden ser obtenidas de datos históricos o de un servicio de previsión meteorológica; como sensor virtual en tiempo real para propósitos de control/feedback donde el modelo es invocado sólo un paso adelante; y como servicio gráfico DSS desde una aplicación web. Otros aportaciones relacionados con la tesis han sido: integración completa con sistemas externos en una única plataforma IoT, la integración de una arquitectura de IoT para la gestión de recursos hídricos en entornos agroindustriales.
El siguiente articulo describe los avances obtenidos durante el año 2019 relacionados con la temática de la tesis. Un nuevo término (GMaaS) ha sido desarrollado durante este último año, el cual está basado en modelos de invernaderos como servicio. Esta solución en la que los modelos están disponibles en la nube como servicios en línea y sin ninguna dependencia de software/dispositivos permite acceder a los modelos de clima, crecimiento de cultivos y riego a través de un servicio REST API. Los modelos pueden ser solicitados para diferentes objetivos: como herramienta de simulación donde las entradas del modelo pueden ser obtenidas de datos históricos o de un servicio de previsión meteorológica; como sensor virtual en tiempo real para propósitos de control/feedback donde el modelo es invocado sólo un paso adelante; y como servicio gráfico DSS desde una aplicación web. Otros aportaciones relacionados con la tesis han sido: integración completa con sistemas externos en una única plataforma IoT, la integración de una arquitectura de IoT para la gestión de recursos hídricos en entornos agroindustriales.
Juan Jesús Ojeda Castelo
Juan Jesús Ojeda Castelo
Interacción Natural: Últimas Publicaciones y el inicio con Deep Learning
Interacción Natural: Últimas Publicaciones y el inicio con Deep Learning
En el último año se han estado escribiendo dos papers de los últimos avances realizados en la investigación. Uno de los artículos corresponde con el objetivo que se fijó para esta Tesis sobre adaptación de la interacción al usuario con el uso de Kinect v2 en un centro de educación especial. El otro artículo trata sobre la detección de varias partes del cuerpo (en este caso manos y la cabeza) para controlar una interfaz de usuario y que de esta forma sea más preciso y más fácil para el usuario interaccionar de una manera natural con el sistema. Además, se ha estado leyendo sobre Deep Learning para realizar el reconocimiento de gestos con algoritmos de este campo de la Inteligencia Artificial sin tener que usar ningún dispositivo adicional, sino que se pueda hacer con una webcam estándar.
En el último año se han estado escribiendo dos papers de los últimos avances realizados en la investigación. Uno de los artículos corresponde con el objetivo que se fijó para esta Tesis sobre adaptación de la interacción al usuario con el uso de Kinect v2 en un centro de educación especial. El otro artículo trata sobre la detección de varias partes del cuerpo (en este caso manos y la cabeza) para controlar una interfaz de usuario y que de esta forma sea más preciso y más fácil para el usuario interaccionar de una manera natural con el sistema. Además, se ha estado leyendo sobre Deep Learning para realizar el reconocimiento de gestos con algoritmos de este campo de la Inteligencia Artificial sin tener que usar ningún dispositivo adicional, sino que se pueda hacer con una webcam estándar.
Luis Ortega López
Luis Ortega López
Clasificación de cultivos utilizando imágenes multi-espectrales y software eCognition
Clasificación de cultivos utilizando imágenes multi-espectrales y software eCognition
La línea de investigación se basa en el uso de imágenes de diferentes espectros arrojadas por una cámara multi-espectral (Sequoia Parrot). Dichas imágenes han sido procesadas para eliminar las distorsiones propias de las lentes y poder reconstruir una imagen completa y superpuesta de cultivos en un entorno real. Actualmente se está utilizando un software puntero en análisis y extracción de información sobre imágenes denominado eCognition. Este software utiliza un método novedoso basado en identificar diferentes jerarquías de objetos en la propia imagen, que permite un análisis de grupos de píxeles como un único objeto, a diferencia de los métodos clásicos de análisis de imágenes que procesan los píxeles de la imagen por separado. Este software nos permite elaborar algoritmos multi-espectrales complejos para clasificar y separar la materia vegetal del resto del entorno, así como nos proporciona herramientas para poder llegar a segmentar regiones concretas de las plantas y poder llegar a hacer una clasificación basada en especies como objetivo futuro.
La línea de investigación se basa en el uso de imágenes de diferentes espectros arrojadas por una cámara multi-espectral (Sequoia Parrot). Dichas imágenes han sido procesadas para eliminar las distorsiones propias de las lentes y poder reconstruir una imagen completa y superpuesta de cultivos en un entorno real. Actualmente se está utilizando un software puntero en análisis y extracción de información sobre imágenes denominado eCognition. Este software utiliza un método novedoso basado en identificar diferentes jerarquías de objetos en la propia imagen, que permite un análisis de grupos de píxeles como un único objeto, a diferencia de los métodos clásicos de análisis de imágenes que procesan los píxeles de la imagen por separado. Este software nos permite elaborar algoritmos multi-espectrales complejos para clasificar y separar la materia vegetal del resto del entorno, así como nos proporciona herramientas para poder llegar a segmentar regiones concretas de las plantas y poder llegar a hacer una clasificación basada en especies como objetivo futuro.
Francisco José Orts Gómez
Francisco José Orts Gómez
Un circuito cuántico optimizado para convertir de formato signo-magnitud a complemento a dos
Un circuito cuántico optimizado para convertir de formato signo-magnitud a complemento a dos
Uno de los problemas críticos para implementar algoritmos cuánticos a día de hoy es la escasez de recursos. Las computadoras y simuladores cuánticos actuales son principalmente prototipos con escasos recursos computacionales. Por lo tanto, es necesario optimizar las operaciones para reducir la cantidad necesaria de puertas y cúbits. Este trabajo presenta un novedoso circuito reversible que puede convertir números binarios con signo de N dígitos en números en complemento a dos en un entorno cuántico. La profundidad del circuito es O(log N). Está basado en el sumador reversible con acarreo anticipado más rápido disponible actualmente. Este sumador se ha adaptado para realizar la conversión utilizando el número mínimo de puertas y cúbits, siendo más rápido que una suma normal. Además, se ha utilizado una métrica robusta para medir el coste cuántico, el retardo, las entradas auxiliares y las salidas basura, y se ha comparado con otros circuitos presentes en la literatura.
Uno de los problemas críticos para implementar algoritmos cuánticos a día de hoy es la escasez de recursos. Las computadoras y simuladores cuánticos actuales son principalmente prototipos con escasos recursos computacionales. Por lo tanto, es necesario optimizar las operaciones para reducir la cantidad necesaria de puertas y cúbits. Este trabajo presenta un novedoso circuito reversible que puede convertir números binarios con signo de N dígitos en números en complemento a dos en un entorno cuántico. La profundidad del circuito es O(log N). Está basado en el sumador reversible con acarreo anticipado más rápido disponible actualmente. Este sumador se ha adaptado para realizar la conversión utilizando el número mínimo de puertas y cúbits, siendo más rápido que una suma normal. Además, se ha utilizado una métrica robusta para medir el coste cuántico, el retardo, las entradas auxiliares y las salidas basura, y se ha comparado con otros circuitos presentes en la literatura.
Savins Puertas
Savins Puertas
Optimización de la similitud de forma y del potencial electrostático utilizando un algoritmo multi-objetivo.
Optimización de la similitud de forma y del potencial electrostático utilizando un algoritmo multi-objetivo.
La información en el campo de la química aumenta cada año implicando la creación de nuevas bases de datos de compuestos y un mayor conocimiento de éstos. Para trabajar con esta gran cantidad de datos, se suelen aplicar diferentes técnicas. Una de las más utilizadas es el cribado virtual basado en ligandos. Éste consiste en enfrentar un compuesto referencia a una base de datos, que pueden contener hasta millones de compuestos químicos, evaluando una o más de sus propiedades o descriptores. Después de esta evaluación, se eligen para el análisis in-vitro los compuestos cuyos descriptores sean más similares a los del compuesto de referencia. Existe un gran número de descriptores moleculares y, en la literatura, suelen analizarlos individualmente, lo que puede provocar un entendimiento incompleto de los resultados durante la etapa de análisis. En este trabajo, como alternativa, se propone un algoritmo multi-objetivo en el que se consideran simultáneamente dos descriptores: la similitud de la forma y del potencial electrostático. Utilizando estas dos funciones objetivo, el nuevo algoritmo pretende conseguir un frente de Pareto óptimo que permita al ojo experto seleccionar los compuestos más adecuados según las propiedades del compuesto de referencia y sus intereses. Se han estudiado y analizado diferentes técnicas en busca de conseguir un buen rendimiento manteniendo una alta calidad en la solución, algo indispensable en este tipo de problemas. El nuevo algoritmo ha sido comparado frente a algoritmos de la literatura para evaluar la calidad de sus resultados utilizando bases de datos conocidas.
La información en el campo de la química aumenta cada año implicando la creación de nuevas bases de datos de compuestos y un mayor conocimiento de éstos. Para trabajar con esta gran cantidad de datos, se suelen aplicar diferentes técnicas. Una de las más utilizadas es el cribado virtual basado en ligandos. Éste consiste en enfrentar un compuesto referencia a una base de datos, que pueden contener hasta millones de compuestos químicos, evaluando una o más de sus propiedades o descriptores. Después de esta evaluación, se eligen para el análisis in-vitro los compuestos cuyos descriptores sean más similares a los del compuesto de referencia. Existe un gran número de descriptores moleculares y, en la literatura, suelen analizarlos individualmente, lo que puede provocar un entendimiento incompleto de los resultados durante la etapa de análisis. En este trabajo, como alternativa, se propone un algoritmo multi-objetivo en el que se consideran simultáneamente dos descriptores: la similitud de la forma y del potencial electrostático. Utilizando estas dos funciones objetivo, el nuevo algoritmo pretende conseguir un frente de Pareto óptimo que permita al ojo experto seleccionar los compuestos más adecuados según las propiedades del compuesto de referencia y sus intereses. Se han estudiado y analizado diferentes técnicas en busca de conseguir un buen rendimiento manteniendo una alta calidad en la solución, algo indispensable en este tipo de problemas. El nuevo algoritmo ha sido comparado frente a algoritmos de la literatura para evaluar la calidad de sus resultados utilizando bases de datos conocidas.
Jerónimo Ramos Teodoro
Jerónimo Ramos Teodoro
Aportaciones al control y gestión de sistemas de producción distribuidos: estado actual de la cuestión y desarrollo de una librería para simulaciones
Aportaciones al control y gestión de sistemas de producción distribuidos: estado actual de la cuestión y desarrollo de una librería para simulaciones
En los últimos años, el cambio climático y la preocupación por el futuro agotamiento de los combustibles fósiles han favorecido la aparición de políticas que tratan de fomentar el aprovechamiento eficiente de los recursos a escala local junto con el uso de energías renovables. Ante este panorama, la producción distribuida se postula como una alternativa a los sistemas de generación energética tradicionales que requiere del desarrollo de estrategias de gestión y coordinación apropiadas. Este documento recoge las aportaciones realizadas en dicho ámbito hasta febrero de 2020, durante la realización de la tesis doctoral de su autor. Se trata de una librería que permite la definición de problemas de reparto económico, basándose en el modelo de uso más extendido en publicaciones sobre centros de energía, y de una revisión bibliográfica de los enfoques, técnicas de optimización y criterios habitualmente tratados en sistemas de producción distribuidos.
En los últimos años, el cambio climático y la preocupación por el futuro agotamiento de los combustibles fósiles han favorecido la aparición de políticas que tratan de fomentar el aprovechamiento eficiente de los recursos a escala local junto con el uso de energías renovables. Ante este panorama, la producción distribuida se postula como una alternativa a los sistemas de generación energética tradicionales que requiere del desarrollo de estrategias de gestión y coordinación apropiadas. Este documento recoge las aportaciones realizadas en dicho ámbito hasta febrero de 2020, durante la realización de la tesis doctoral de su autor. Se trata de una librería que permite la definición de problemas de reparto económico, basándose en el modelo de uso más extendido en publicaciones sobre centros de energía, y de una revisión bibliográfica de los enfoques, técnicas de optimización y criterios habitualmente tratados en sistemas de producción distribuidos.
Diego Rodríguez Gracia
Diego Rodríguez Gracia
Arquitecturas adaptativas en tiempo de ejecución mediante transformaciones inteligentes basadas en técnicas de soft-computing y desarrollo de software dirigido por modelos.
Arquitecturas adaptativas en tiempo de ejecución mediante transformaciones inteligentes basadas en técnicas de soft-computing y desarrollo de software dirigido por modelos.
En los últimos años, el uso de servicios para el desarrollo de Sistemas Abiertos se ha consolidado y fortificado. Avances en la comunidad de Servicio de Ciencia e Ingeniería (SSE), promovidos por el refuerzo de los Servicios Web, las tecnologías desarrolladas en la Web Semántica y la presencia de nuevas técnicas de computación en la nube como la proliferación de soluciones de microservicios, han permitido que en el desarrollo de software se experimente y desarrollen nuevas formas de construir sistemas informáticos abiertos y adaptables en tiempo de ejecución en dominios como la domótica, edificios inteligentes, robótica, interfaces gráficas de usuario, etc. . Esta tesis se centra en desarrollar arquitectura de software para la adaptación de Sistemas Informáticos Dinámicos (DCS) usando técnicas interdisciplinarias de Ingeniería Dirigida por Modelos (MDE) , ingeniería de servicios y soft computing. Dicha propuesta de arquitectura gestiona un esquema de microservicios orquestados para conseguir una arquitectura adaptativa de software basada en componentes en tiempo de ejecución. Este esquema se ha desarrollado como un proceso de transformación adaptativa de tres capas que es compatible con un servicio de toma de decisiones basado en reglas implementado mediante una máquina de aprendizaje. Como desarrollo experimental de la arquitectura propuesta se implementará la arquitectura adaptativa en tiempo de ejecución propuesta en el Centro de Investigación de Energía Solar (CIESOL) para control domótico del mismo.
En los últimos años, el uso de servicios para el desarrollo de Sistemas Abiertos se ha consolidado y fortificado. Avances en la comunidad de Servicio de Ciencia e Ingeniería (SSE), promovidos por el refuerzo de los Servicios Web, las tecnologías desarrolladas en la Web Semántica y la presencia de nuevas técnicas de computación en la nube como la proliferación de soluciones de microservicios, han permitido que en el desarrollo de software se experimente y desarrollen nuevas formas de construir sistemas informáticos abiertos y adaptables en tiempo de ejecución en dominios como la domótica, edificios inteligentes, robótica, interfaces gráficas de usuario, etc. . Esta tesis se centra en desarrollar arquitectura de software para la adaptación de Sistemas Informáticos Dinámicos (DCS) usando técnicas interdisciplinarias de Ingeniería Dirigida por Modelos (MDE) , ingeniería de servicios y soft computing. Dicha propuesta de arquitectura gestiona un esquema de microservicios orquestados para conseguir una arquitectura adaptativa de software basada en componentes en tiempo de ejecución. Este esquema se ha desarrollado como un proceso de transformación adaptativa de tres capas que es compatible con un servicio de toma de decisiones basado en reglas implementado mediante una máquina de aprendizaje. Como desarrollo experimental de la arquitectura propuesta se implementará la arquitectura adaptativa en tiempo de ejecución propuesta en el Centro de Investigación de Energía Solar (CIESOL) para control domótico del mismo.
Enrique Rodriguez Miranda
Enrique Rodriguez Miranda
Control y modelado de procesos en reactores de microalgas abiertos tipo raceway
Control y modelado de procesos en reactores de microalgas abiertos tipo raceway
La producción de biomasa a partir de microalgas es un proceso que cada vez está más extendido, incluso a nivel industrial. La principal ventaja de las microalgas reside en la capacidad de llevar a cabo el proceso de fotosíntesis, consumiendo CO2 para aumentar la biomasa,la cual puede usarse en un amplio rango de aplicaciones, como pueden ser compañías farmacéuticas, piscifactorías, agricultura, o incluso en la producción de biodiesel. Además, el proceso de producción de biomasa de microalgas puede combinarse con el proceso de tratamiento de agua residual en un mismo reactor. El proceso de producción de biomasa se desarrolla principalmente en dos tipos de reactores, cerrados y abiertos,siento estos últimos más baratos y simples de operar, además de los más extendidos. Por ello, la tesis se centra en el diseño de algoritmos de control que permita la mejora en el control de las variables que afectan a las microalgas, como el pH, el oxígeno disuelto o la temperatura, as como el desarrollo de modelos que reproduzcan el comportamiento de dichas variables. Este trabajo presenta un desarrollo de los avances realizados en el último año en relación a los objetivos propuestos. Cabe destacar el control (PI y control basado en eventos) de pH efectuado durante el day la noche; y el desarrollo de un modelo de temperatura para reactores abiertos tipo raceway.
La producción de biomasa a partir de microalgas es un proceso que cada vez está más extendido, incluso a nivel industrial. La principal ventaja de las microalgas reside en la capacidad de llevar a cabo el proceso de fotosíntesis, consumiendo CO2 para aumentar la biomasa,la cual puede usarse en un amplio rango de aplicaciones, como pueden ser compañías farmacéuticas, piscifactorías, agricultura, o incluso en la producción de biodiesel. Además, el proceso de producción de biomasa de microalgas puede combinarse con el proceso de tratamiento de agua residual en un mismo reactor. El proceso de producción de biomasa se desarrolla principalmente en dos tipos de reactores, cerrados y abiertos,siento estos últimos más baratos y simples de operar, además de los más extendidos. Por ello, la tesis se centra en el diseño de algoritmos de control que permita la mejora en el control de las variables que afectan a las microalgas, como el pH, el oxígeno disuelto o la temperatura, as como el desarrollo de modelos que reproduzcan el comportamiento de dichas variables. Este trabajo presenta un desarrollo de los avances realizados en el último año en relación a los objetivos propuestos. Cabe destacar el control (PI y control basado en eventos) de pH efectuado durante el day la noche; y el desarrollo de un modelo de temperatura para reactores abiertos tipo raceway.
José Juan Sánchez Hernández
José Juan Sánchez Hernández
Transmisión de secuencias de imágenes JPEG2000 usando actualización condicional y compensación de movimiento controlada por el cliente
Transmisión de secuencias de imágenes JPEG2000 usando actualización condicional y compensación de movimiento controlada por el cliente
Este trabajo propone una estrategia para la transmisión de secuencias de imágenes JPEG2000 de alta resolución utilizando técnicas de actualización condicional y compensación de movimiento, en arquitecturas cliente/servidor que hagan uso del estándar de compresión JPEG2000 y el protocolo JPIP. Una de las principales contribuciones que se realizan en este trabajo, es que la actualización condicional y la compensación de movimiento se realizan en el lado del cliente, de modo que la técnica propuesta es compatible con cualquier servidor JPIP estándar. Este trabajo aprovecha la escalabilidad espacial que ofrece JPEG2000 para reutilizar los precintos de imágenes que ya han sido reconstruidas y visualizadas previamente por el cliente, y permite determinar qué precintos de la siguiente imagen de la secuencia han cambiado. De modo que el cliente en lugar de solicitar todos los precintos de la siguiente imagen, sólo solicitará aquellos que hayan cambiado y realizará una reconstrucción de la siguiente imagen haciendo uso de los precintos existentes de imágenes previas junto a los nuevos precintos que ha solicitado al servidor. Los resultados de nuestros experimentos demuestran que la calidad de las imágenes reconstruidas mejoran significativamente cuando además de la actualización condicional también se realiza una compensación de movimiento.
Este trabajo propone una estrategia para la transmisión de secuencias de imágenes JPEG2000 de alta resolución utilizando técnicas de actualización condicional y compensación de movimiento, en arquitecturas cliente/servidor que hagan uso del estándar de compresión JPEG2000 y el protocolo JPIP. Una de las principales contribuciones que se realizan en este trabajo, es que la actualización condicional y la compensación de movimiento se realizan en el lado del cliente, de modo que la técnica propuesta es compatible con cualquier servidor JPIP estándar. Este trabajo aprovecha la escalabilidad espacial que ofrece JPEG2000 para reutilizar los precintos de imágenes que ya han sido reconstruidas y visualizadas previamente por el cliente, y permite determinar qué precintos de la siguiente imagen de la secuencia han cambiado. De modo que el cliente en lugar de solicitar todos los precintos de la siguiente imagen, sólo solicitará aquellos que hayan cambiado y realizará una reconstrucción de la siguiente imagen haciendo uso de los precintos existentes de imágenes previas junto a los nuevos precintos que ha solicitado al servidor. Los resultados de nuestros experimentos demuestran que la calidad de las imágenes reconstruidas mejoran significativamente cuando además de la actualización condicional también se realiza una compensación de movimiento.
Teresa Santamaría López
Teresa Santamaría López
Impact of streaming on the increasing demand of modern education and distance
Impact of streaming on the increasing demand of modern education and distance
The streaming is a phenomenon whose growing popularity has earned him great attention from educational environments looking to become more dynamic and direct with his students, being independent salons or class schedules. Yet precisely because it has become a trend in education methodologies should be analysed from the point of effectiveness and quality, since aspects such as safety and efficiency should be evaluated when they are focused on households, which are the largest claimants of its contents. Factors such as congestion, available bandwidth, the costs of the servers for its performance, resilience in situations of failure, among others will be reviewed in this article. Finally noting examples of implementation in operating rooms or proposals for expansion in the form of games, will analyse new opportunities of development for these technologies.
The streaming is a phenomenon whose growing popularity has earned him great attention from educational environments looking to become more dynamic and direct with his students, being independent salons or class schedules. Yet precisely because it has become a trend in education methodologies should be analysed from the point of effectiveness and quality, since aspects such as safety and efficiency should be evaluated when they are focused on households, which are the largest claimants of its contents. Factors such as congestion, available bandwidth, the costs of the servers for its performance, resilience in situations of failure, among others will be reviewed in this article. Finally noting examples of implementation in operating rooms or proposals for expansion in the form of games, will analyse new opportunities of development for these technologies.
Tobar Farias Galo Wilfredo
Tobar Farias Galo Wilfredo
Aplicación de la matemática en la criptografía conmutativa y no conmutativa
Aplicación de la matemática en la criptografía conmutativa y no conmutativa
La criptografía ha pasado por diferentes etapas para llegar lo que es actualmente. Se le considera el intercambio de información de manera oculta entre un emisor y un receptor, es el arte para codificar y a la vez de descodificar mensajes burlando a intrusos. Constantemente con nuevas estrategias y métodos en: una ciencia que usando las matemáticas como herramienta principal para su desarrollo. En este artículo se da un breve repaso de su historia, la importancia de las matemáticas para la codificación y descodificación de manera conmutativa y no conmutativa, las dos presentan diferentes interpretaciones de los mensajes, el paso a las encriptaciones de las llaves públicas como privadas con la innovación de los algoritmos en la criptografía desarrollada en la no conmutativa, permitiendo limitar hasta un cierto punto la información para los destinatarios. Las técnicas de seguridad es requisito en las empresas por la confidencialidad y la integridad del mismo por aspectos que influyen a diario a las encriptaciones de mensajes esto se debe a los robos de información, estafas valiéndose de las tarjetas de crédito procediendo a las extorciones de cantidades de dinero según lo importante para la recuperación de los mismos, por ello, la importancia de recurrir e innovar cada día a las encriptaciones disfrazando los mensajes a códigos encubiertos. Cifrar el contenido del mensaje dependerá de cuán importante la organización el individuo considere a qué nivel de protección tendrá que adquirir en equipos de seguridad tecnología.
La criptografía ha pasado por diferentes etapas para llegar lo que es actualmente. Se le considera el intercambio de información de manera oculta entre un emisor y un receptor, es el arte para codificar y a la vez de descodificar mensajes burlando a intrusos. Constantemente con nuevas estrategias y métodos en: una ciencia que usando las matemáticas como herramienta principal para su desarrollo. En este artículo se da un breve repaso de su historia, la importancia de las matemáticas para la codificación y descodificación de manera conmutativa y no conmutativa, las dos presentan diferentes interpretaciones de los mensajes, el paso a las encriptaciones de las llaves públicas como privadas con la innovación de los algoritmos en la criptografía desarrollada en la no conmutativa, permitiendo limitar hasta un cierto punto la información para los destinatarios. Las técnicas de seguridad es requisito en las empresas por la confidencialidad y la integridad del mismo por aspectos que influyen a diario a las encriptaciones de mensajes esto se debe a los robos de información, estafas valiéndose de las tarjetas de crédito procediendo a las extorciones de cantidades de dinero según lo importante para la recuperación de los mismos, por ello, la importancia de recurrir e innovar cada día a las encriptaciones disfrazando los mensajes a códigos encubiertos. Cifrar el contenido del mensaje dependerá de cuán importante la organización el individuo considere a qué nivel de protección tendrá que adquirir en equipos de seguridad tecnología.
Lugar de celebración
Lugar de celebración
Sala de Grados del edificio CITE-III, Campus universitario de La Cañada, Universidad de Almería
Sala de Grados del edificio CITE-III, Campus universitario de La Cañada, Universidad de Almería
Fotos
Fotos