Bienvenidos
Laboratorio de Interacción Humano - Máquina (Human-Machine Interaction, HMI)
Laboratorio de Interacción Humano - Máquina (Human-Machine Interaction, HMI)
El laboratorio surge con base a las competencias del siglo XXI, el cual se relaciona con la resolución de problemas usando una máquina. Por lo que, se busca proveer soluciones por medio de máquinas que puedan interactuar de manera inteligente.
Una persona puede interactuar con interfaces físicas de manera unimodal (un solo canal) o multimodal (varios canales). Por lo tanto, HMI, se refiere a la comunicación entre un ser humano y una máquina a través de una interfaz de usuario. Este laboratorio busca diseñar, implementar y evaluar este tipo de interfaces e interacciones.
La interfaz de usuario puede ser un robot, una aplicación móvil, un dispositivo EEG (capturar actividad del cerebro), un dispositivo mecatrónico con sensores, entre otras. Hoy en día, las interfaces de usuario naturales han ganado más atención, ya que permiten que las personas controlen las máquinas a través de comportamientos naturales o puedan ser usadas para interacción social, algunos ejemplos: robot sociales, asistentes virtuales (ó agentes virtuales), entornos de Realidad Virtual (Virtual Reality) usando sensores.
Los buenos diseños de sistemas de interacción humano-máquina (HMI) han adquirido un gran valor de mercado para muchos productos y servicios en ámbitos de aplicación como la industria, el transporte, la medicina y sistemas de entretenimiento.
Un robot es una interface de interacción que se conoce como humano-robot, algunos robots pueden tener apariencia humanoide y se usan para interacción social.
Para crear un robot se necesita explorar los siguientes temas:
Actuadores (respuestas)
Sensores (percepción)
Plataformas de desarrollo o sistemas embebidos como raspberry pi, orange pi, Arduino (hay una gama amplia), Jetson nano, entre otros.
Algoritmos de control, decisión y planificación
Algoritmos para filtrar datos, estimación y fusión de datos.
VR es una interface visual, cuya interacción es visual y háptica que se usa con fines de entretenimiento, rehabilitación, educación, entre otros. Este tipo de interfaces hace uso de un dispositivo físico, algunos como Oculus Quest 2, Meta quest 2, o cascos que se incorpora el dispositivo móvil.
Para crear una interface de VR se necesita explorar los siguientes temas:
Creación de objetos 3D, el cual puede usarse blender o SketchUp.
Entornos de desarrollo como Unity o Unreal Engine.
Parte háptica se puede diseñar dispositivos físicos con sensores.
Una interface tangible (Tangible User Interface, TUI) es donde una persona realiza la interacción con la información digital a través de un entorno físico.
Por ejemplo, estudiantes de informática con un estudiante de doctorado de la Universidad de Granada (España), realizaron un juego pervasivo para adultos mayores. Los adultos mayores tienen problemas para interactuar con los gestos de los dispositivos móviles, entonces se diseñó una TUI. El juego pervasivo se llama "Baúl de recuerdos" y se diseño un baúl en impresión 3D, el cual usa un sensor RFID y Arduino ESP32, y hay 4 tarjetas identificadas cada una con un color y código. El baúl se conecta a través de bluetooth a la aplicación móvil.
Interface con textiles conocido como "smart textiles" o "e-textiles" permiten integrar componentes digitales. Algunos se usan con fines de monitoreo conocidos como wearable, o solo entretenimiento.
Para este tipo de diseño de interfaces trabajamos con la carrera de diseño de vestuario de la Universidad San Buenaventura de Cali (Colombia)
Una interface a través de un robot, el cual se usa para promover competencias STEAM para educación básica, media y superior. Esta interface que se centra en el diseño, aplicación y operación de un robot. Por lo que, se dice que es un robot educativo.
Un conjunto de conceptos, aplicaciones y estrategias de pensamientos que son usados para resolver problemas con esta interface, tales como:
Descomposición
Reconocimiento de patrones
Abstracción
Diseño de Algoritmo
Una interface a través de un dispositivo EEG. Se conoce como Interacción Cerebro-Computador, el cual permite leer actividad cerebral de una persona, y puede usarse para diferentes propósito como evaluar la experiencia de usuario (UX), o para interacción (controlar con la mente objetos).
Hay varios tipos de dispositivos BCI que varían de acuerdo al número de electrodos, algunos : OpenBCI, Emotiv, Neurosky (solo tiene un electrodo, evalúa la atención).
Para este tipo de interfaz se requiere temas, como:
Procesamiento digital de señales: series de tiempo, señales EEG.
Neuro-ciencia
Reconocimiento de patrones
También este tipo de dispositivos se usa en un tópico llamado neuro-marketing.
Una interface tangible para enseñar lenguaje dactilológico a los niños sordos. Es como el abedecedario en señas, es cuando una persona sorda debe aprender la palabra escrita y es el deletreo de cada palabra para saber como se escribe.
Se diseñó un guante usando sensores flex y Arduino ESP32 para leer los gestos de la mano y se conecta a bluetooth a través de una aplicación móvil nativa (hecha con el IDE android Studio)
Una interface tangible para entretenimiento. Los colores de los diodos Leds RGB cambian de acuerdo al ritmo de la música. Se diseño un cubo de leds RGB. Este tipo de interfaces podría servir de apoyo para una persona sorda, donde se apoya del canal visual. Hay dos canales comunicación: visual y auditiva.