CONSTRUCCIÓN DE UN SISTEMA DE CAPTURA DE MOVIMIENTO
PARA ENTORNOS DE REALIDAD VIRTUAL.
Por
Ana Milena Castiblanco Quintero
Jorge Alberto Pinilla Estupiñán
UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS
FACULTAD TECNOLÓGICA
INGENIERÍA TELEMÁTICA
Bogotá, Agosto del 2008
CONSTRUCCIÓN DE UN SISTEMA DE CAPTURA DE MOVIMIENTO
PARA ENTORNOS DE REALIDAD VIRTUAL.
Por
Ana milena Castiblanco Quintero
Jorge Alberto pinilla Estupiñán
Tesis propuesta para optar por el titulo en Ingeniera Telemática
Tutor: Juan Carlos Guevara B
Ing. de Sistemas
UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS
FACULTAD TECNOLÓGICA
INGENIERÍA TELEMÁTICA
Bogotá, Agosto 2008
Nota de Aceptación
_____________________________________________________________
_____________________________________________________________
_____________________________________________________________
_____________________________________________________________
_____________________________________________________________
_____________________________________________________________
___________________________
Firma del Presidente del jurado
__________________________
Firma del jurado
__________________________
Firma del jurado
Colombia Bogota, Agosto de 2008
AGRADECIMIENTOS
A los que siempre estuvieron a nuestro lado y a los que ya no lo están, les dedicamos este pequeño paso en nuestras vidas..
Gracias por mirar hacia donde nosotros miramos
Gracias por ayudarnos en este trayecto de nuestras vidas
Gracias Mil Gracias..
A Mauricio Gómez, sin el nada de esto fuera posible, por su amor, comprensión y Amistad
Y sobre toda su pasión por la ingeniería.
TABLA DE CONTENIDO
1.3 PLANTEAMIENTO DEL PROBLEMA
1.7.2.1 REALIDAD VIRTUAL:¿CÓMO IDENTIFICARLA
1.7.2.2 DISPOSITIVOS DE POSICIONAMIENTO
b. Posicionadores Electromagnéticos
c. Posicionadores Ultrasónicos
1.7.2.3 DISPOSITIVOS DE INTERACCIÓN
1.7.2.4 DISPOSITIVOS DE VISUALIZACIÓN
a. Lentes LCD Resplandecientes
f. El HMD con LED de Columna Única
1.7.2.8 PROGRAMACIÓN EN ENTORNOS TRIDIMENSIONALES
b. Fundamentos de los programas para Realidad Virtual
c. Características del Software para Realidad Virtual
d. Estructura de un Software de RV
g. Software para Desarrollo de Aplicaciones en RV
1.7.3 ESTRUCTURA FÍSICA CIRCUITO IMPRESO
1.7.3.1 TÉCNICAS DE CONSTRUCCIÓN DE CIRCUITOS IMPRESOS
a. Procedimiento Directo Manual con marcador
1.7.4.2 Estereoscopia : "Literalmente, estereoscopia es: ver con dos ojos"
1.7.4.3 ¿Qué son los ambientes virtuales inmersivos?
a. Diferencias con ambientes virtuales no inmersivos
b. Ventajas de los ambientes inmersivos sobre los no inmersivos
c. Requerimientos en software de las aplicaciones inmersitas
1.7.6.1 METODOLOGÍA PLANTEADA PARA EL DESARROLLO DEL DISPOSITIVO DE INTERACCIÓN
1.7.6.2 METODOLOGÍA PLANTEADA PARA EL DESARROLLO DEL ENTORNO VIRTUAL
1.7.6.3 METODOLOGÍA PLANTEADA PARA EL DESARROLLO DE LA INTERFAZ ELECTRÓNICA
1.8.1.1 Elementos de Hardware:
1.8.1.2 Elementos de Software:
2.1 DISPOSITIVO DE INTERACCIÓN
2.1.1Planeación y Organización
2.1.1.2 Herramientas y Materiales
2.1.1.3 Requerimientos funcionales
a. Sistema de captura de movimiento
a. Estructura física Sistema de captura de movimiento
2.1.1.5 Diseño del Dispositivo.
Bosquejo ubicación de potenciómetros y flexometros
b. Propuestas de diseño estructural
c. Propuestas de funcionamiento Exo esqueleto electro mecánico
d. Propuestas de funcionamiento Guante
2.2.2 Componentes que se nesecitan
2.2.3 Características de los componentes
2.2.5 Diseño del circuito impreso
2.2.6 Dibujo esquemático eléctrico
2.3.1 DEFINIR AMBIENTE PROBLEMA
2.3.2 DEFINIR OBJETOS, AMBIENTES Y COMPORTAMIENTOS
2.3.2.2 MODULO DE APRENDIZAJE DE NUMEROS
2.3.2.3 MODULO DE APRENDIZAJE DE COLORES
2.3.2.4 Componentes de la aplicación
2.3.2.5 INCORPORACIÓN DEL PROGRAMA DE COMPORTAMIENTO LOS OBJETOS
2.3.2.6 CONSTRUIR EL AMBIENTE VIRTUAL TOTAL A PARTIR DE LOS OBJETOS
2.3.3 ARQUITECTURA DEL SISTEMA
2.3.4 ANALISIS DEL ENTORNO VIRTUAL
2.3.5 DISEÑO DEL ENTORNO VIRTUAL
2.3.5.1 DIAGRAMAS DE FUJO DE DATOS NIVEL 2
2.3.5.2 DIAGRAMAS DE FUJO DE DATOS NIVEL 3
3. FASE DE DESARROLLO Y PRUEBA
3.1 DESARROLLO Y CONSTRUCCIÓN DEL EXOESQUELETO ELECTROMECÁNICO
3.1.1 Exo esqueleto Electromecánico
3.1.2 Desarrollo y construcción del traje
3.1.3 Desarrollo y construcción del guante
3.1.8 Entrega Final del Producto
3.2 DESARROLLO Y CONSTRUCCIÓN DE LA INTERFAZ ELECTRÓNICA
3.2.1 Desarrollo del circuito impreso
3.3 DESARROLLO DEL ENTORNO VIRTUAL
3.3.1 DESCRIPCION DEL ENTORNO VIRTUAL Y RESULTADOS OBTENIDOS
3.3.3 INCORPORACIÓN DE PERIFÉRICOS
6.2 DESARROLLO DEL DISPOSITIVO DE CAPTURA DE MOVIMIENTO
Figura 3 Usuario con casco y guante 28
Figura 4. Esquema de la Cueva 30
Figura 5 Operadores en la Cueva 30
Figura 6. Guante para interacción táctil 31
Figura 7. Interacción por medio de CyberTouch 33
Figura 8. Características de una CPU vistas desde una lente de cristal de Realidad aumentada 34
Figura. 9 - Diseño Tridimensional 3 D Stdio.Max 36
Figura 10. Visión Estereoscópica 53
Figura. 11 - Anaglifos. 54
Figura 12. ZEUS, robot para realizar cirugía de tele presencia 58
Figura 13. Terrobots 60
Figura 14. Tele presencia 61
Figura 15. Soporte traje 78
Figura 16. Bosquejo del traje 79
Figura 17 .Bosquejo ubicación de Potenciómetros y Flexometros 80
Figura 18. Diseño del Guante 81
Figura 19. Piezas de Ajuste 82
Figura 20. Piezas de Ajuste 83
Figura 21. Hombro de Exoesqueleto de METAMOTION Gypsy's [2]. 83
Figura 22. Posición potenciómetros y flexometros 84
Figura 23. Posición potenciómetros para solucionar el Yimbal Lok 85
Figura 25. Guante 86
Figura 26. Porcentaje de personas según uso del computador por edad 94
Figura 27. Porcentaje de personas según uso del computador por Nivel educativo 94
Figura 28. Porcentaje de personas según uso del computador por Nivel educativo 95
Figura 29. Porcentaje de metodologías de enseñanza basadas en tecnologías de información y comunicaciones 95
Figura 30. Arquitectura del sistema 106
Figura 31. Análisis del Entorno Virtual 107
Figura 32. Diagrama de Flujo de datos Nivel 2 108
Figura 33. Diagrama de Flujo de datos Nivel 3 109
Figura 34. Primera placa 116
Figura 35. Segunda placa 116
Figura 36. Tercera placa 117
Figura 37. Entorno Virtual Frontal 119
Figura 38. Entorno Virtual Lateral 119
Figura 39. Entorno Virtual Superior 120
Figura 40. Entorno Virtual Superior II 120
Figura 41. Tarjeta ZigBee 127
Figura 42. Modelos Inclinómetros 127
LISTA DE TABLAS
Tabla 1. Alcances Dispositivo de Captura, Interfaz Electrónica y Entorno Virtual 13
Tabla 2. Delimitaciones Dispositivo de Captura, Interfaz Electrónica y Entorno Virtual 14
Tabla 3. Metodología Desarrollo d Dispositivo de interacción 60
Tabla 4. Metodología Desarrollo Entorno Virtual 62
Tabla 6. Costos de Herramientas de Software 65
Tabla 7. Herramientas y Materiales 75
Tabla 8. Desarrollo y construcción de Dispositivo de interacción 92
Tabla 9. Desarrollo y construcción del traje 93
Tabla 10 . Desarrollo y construcción del guante 94
Tabla 11. Modulo Principal 97
Tabla 12. Modulo Aprendizaje de Números 100
Tabla 13. Modulo Aprendizaje de Colores 101
“Realidad Virtual, un termino que resulta difícil de definir desde el punto de vista de aquel que la vive y el terminó Virtual algo que aparentemente existe pero no es real "
La tecnología ha ido más rápido que nuestra habilidad para imaginar que vamos a hacer con ella. Hoy, un termino que se creía hace apenas algunos años como algo extraordinario descrito en las paginas de los libros de ciencia ficción, ha trastornado nuestra mente, esta revolucionando el mundo, no solo la informática, si no también a todas las áreas que en ella se pueden aplicar. Pero surge un interrogante ¿Cuál será el futuro de la Realidad Virtual ? . Es aún una interrogante con bastantes respuestas, aunque La “Realidad Virtual”, evidentemente, se encuentra en su estado inicial. Las posibilidades, en todos los campos, producen vértigo también lo producen sus posibles consecuencias, según los usos para los que pueda destinarse.
La realidad virtual nos proporciona herramientas para hacer, que el usuario puede incursionar creativamente, hasta donde el límite de su imaginación se lo permita. Allí radica, muy posiblemente el mayor atractivo, por que la imaginación y la creatividad tienen la oportunidad de ejecutarse en un "mundo" artificial e ilimitado. Por primera vez, vamos a tener la posibilidad de actuar simultáneamente sobre los sentidos, creando un mundo en el que, a diferencia del real, nadie nos exigirá responsabilidades porque es a social. El mundo virtual es inicialmente un mundo privado, una fantasía en la que sus participantes poseen una libertad absoluta, y cuyas acciones están, por decirlo así, sometidas a la voluntad de cada cual.
El presente trabajo, no es, ni pretende ser, un exhaustivo desarrollo donde se traten todos los aspectos relativos a la Realidad Virtual, sino enfocar un estudio sobre está, a fin de recopilar información que facilite la comprensión de este tema, e incentiven la creación de nuevas aplicaciones que fomenten la investigación y el desarrollo de esta tecnología en nuestro país, ya que por ser un tema donde existe poca documentación, esta información no ha sido tan difundida y documentada, a pesar de su indiscutible atractivo e importancia.
CONSTRUCCIÓN DE UN SISTEMA DE CAPTURA DE MOVIMIENTO PARA ENTORNOS DE REALIDAD VIRTUAL.
Para el desarrollo del proyecto se van abordar los siguientes temas: Realidad Virtual, sistemas de captura de movimiento, programación en entornos tridimensionales.
En un entorno de realidad virtual, la animación es una actividad que demanda tiempo y dinero, el sistema de captura de movimiento fue diseñado para facilitar esta labor e interactuar en ambientes virtuales, el problema consiste en que los sistemas que existen el mercado son bastante costosos.
Él elevado costo de la tecnología utilizada en la implementación de aplicaciones de Realidad Virtual, hace que esta tecnología no sea muy usada en instituciones educativas como lo son colegios y universidades de nuestro país.
La carencia de dispositivos para aplicaciones computacionales de Realidad virtual en los centros educativos, hace, que se siga el lineamiento de desarrollo de aplicaciones que no cumplen con el vertiginoso cambio tecnológico que estamos viviendo, las aplicaciones planas no ofrecen interacción, no ofrecen a los estudiantes una manera innovadora de aprender generando un atraso sistemático frente al desarrollo mundial y quedando rezagados de los nuevos métodos de aprendizaje que han utilizado esta tecnología.
El proyecto consiste en diseñar y construir un sistema de captura de movimiento para interactuar con entornos virtuales. En vista de lo anterior, el sistema estará conformado por los siguientes subsistemas:
Tabla 1. Alcances Dispositivo de Captura, Interfaz Electrónica y Entorno Virtual
Actividad
Diseño y construcción de dispositivo de interacción
Interface electrónica
Descripción
Se Propone la elaboración de un exoesqueleto para interactuar en aplicaciones de realidad virtual. Estos principios se pueden aplicar a sistemas de Teleoperacion y Animación en Tiempo Real. A continuación se especificaran cuales serán las características de este dispositivo:
Se necesita un sistema para interactuar de forma natural con mundos simulados en Realidad Virtual.
· Que se pueda cargar fácilmente.
· Que funcione en varios usuarios sin hacer mayores modificaciones físicas.
· Debe contemplar un conjunto mínimo de movimientos que permita el movimiento del hombro y el codo.
Para la interface entre el dispositivo de manipulación y el computador se utilizara un Sistema de conversión Análogo / Digital (MCP3008)[1].El cual convierte simultáneamente 8 canales análogos a digital cada uno con una resolución de 10 bits equivalente a 1024 puntos de digitalización. Ya que la alimentación del Sistema es de 2.5 voltios se puede decir que se tiene una resolución de 0.0024 voltios por escalón. El sistema transmite la información por el puerto paralelo donde se pueden tener 8 chips funcionando simultáneamente que es lo mismo a tener un conversor de 64 canales Análogo / Digital con 8 canales de conversión simultáneos.
Desarrollo del Entorno virtual
Construcción de plataforma Física
Se desarrollara la metodología planteada por J.C Parra para desarrollos de entornos Virtuales, describiendo una aplicación compuesta de módulos de enseñanza básicos para la identificación de colores y números, que no será implementada en el trabajo final , en la practica se hará una simulación de este aplicativo describiendo como se puede interactuar en un ambiente virtual .
Se procederá a implementar en el grupo de investigación Metis, una plataforma de Realidad Virtual compuesta por:
La especificación de software y hardware utilizadas en el proyecto, esta definida por las siguientes herramientas, las cuales se concretaron dentro del grupo de investigación, y se suministraron por el mismo:
Tabla 2. Delimitaciones Dispositivo de Captura, Interfaz Electrónica y Entorno Virtual
Construcción de una sistema de captura de movimiento para interactuar en un entorno de Realidad Virtual.
Son muchos los usos que se pueden dar a este tipo de tecnología, algunos de ellos como sistema de captura de movimiento humano para reproducirlo en un entorno virtual, por medio de un avatar en tiempo real, el uso de este tipo de tecnología hace que ese reduzca significativamente el tiempo destinado a la animación ya que si se hace con los métodos tradicionales se tardaría mucho tiempo y los proyectos serian bastante costosos y complicados de realizar.
Esta tecnología también creada para la teleoperacion, puede ser muy útil en diferentes áreas como lo son: la enseñanza, la teleoperacion de robots y otras funciones que están revolucionando el mundo a nivel tecnológico. Si observamos en el contexto mundial, algunas de los usos que le están dando a la realidad virtual, es precisamente el desarrollo de aplicaciones utilizadas para fomentar la enseñaza de varias asignaturas en los planteles educativos de nivel primaria y secundaria, en las universidades, se utilizan los laboratorios virtuales para una gran variedad de funciones; los estudiantes de medicina pueden realizar operaciones simuladas para ensayar las técnicas más complicadas, antes de una operación real, los arquitectos pueden hacer que sus clientes, enfundados en cascos y guantes, visiten los diseños de sus casas modelo en un mundo de Realidad Virtual, dándoles la oportunidad de que abran las puertas o las ventanas y enciendan o apaguen las luces del apartamento, y hasta verificar si su diseño es realmente viable o no.
El problema radica en que el elevado costo de esta tecnología nos lo hace fácilmente asequible para las instituciones educativas, por lo que se propone, la construcción de un sistema de captura de movimiento para entornos de realidad Virtual (Software y Hardware) a bajo costo, utilizando software libre y materiales económicos que se encuentran en el mercado nacional, la cual proporcionara las herramientas necesarias para crear nuevas aplicaciones que fomenten el desarrollo tecnológica en nuestro país.
Es importante hacer notar que el término“Realidad Virtual” fue acuñado originalmente por el norteamericano Jaron Lanier en un artículo titulado “The Ultimate Display”.Este ex director de la empresa VPL Research, utilizó el término en 1989 (Myron Krueger fueel primero en atribuírselo), para distinguir entre simuladores y la experiencia de inmersión de Realidad Virtual. Sin embargo, otros autores difieren de esta posición, planteando que ya en 1987, David Zelzer (del Media Lab) utilizaba dicha expresión. Aunque el origen exacto de la expresión “Realidad Virtual” es ambiguo, y más bien anecdótico, el desarrollo dela misma es bastante más claro. Aunque los dispositivos tradicionales de entrada y salida de datos del computador (teclado, mouse, monitor, joystick) ofrecen grandes facilidades para el manejo de información, están limitados cuando las aplicaciones van ganando en complejidad y sofisticación, como es el caso de la Realidad Virtual que requiere de otros dispositivos para poder aprovechar todo su potencial.
En 1958, la Philco Corporation desarrolló un dispositivo visual en un casco controlado por los movimientos de la cabeza del usuario. Algunos años después, Iván Sutherland y otros investigadores crean un accesorio denominado “Head Mounted Display” (HMD), montando tubos de rayos catódicos en un armazón de alambres, mediante el cual el usuario podía examinar, moviendo la cabeza, un ambiente gráfico. Luego Morton Heiling inventa y opera el Sensorama, una instalación que estimula una diversidad de sentidos (vista, olfato, sonido y fuerza motriz). En 1969, Myron Krueger crea ambientes interactivos que permiten la participación del cuerpo entero, en eventos apoyados por computadores.
Paralelamente, Frederick Brooks, de la Universidad de Carolina del Norte en Chapel Hill, trabajaba en un proyecto para lograr que los usuarios muevan objetos gráficos mediante un manipulador mecánico.En 1971, Redifon Ldt. en el Reino Unido, comienza a fabricar simuladores de vuelo con pantallas gráficas. En 1972, General Electric, bajo mandato de la Armada Norteamericana, desarrolla el primer simulador computarizado de vuelo. Tom de Fanti fue el inventor del guante de datos en 1976, aunque su diseño fue mejorado posteriormente por Tom Zimmerman, dando origen al DataGlove, diseñado originalmente para poder tocar una guitarra virtual o imaginaria.
Aunque fue Jaron Lanier quien comenzó a creer y a divulgar las posibilidades de las nuevas tecnologías y se hizo famoso en todo el mundo al presentar, en 1984, una versión mejorada del guante de datos para la NASA. Ese mismo año, Michael McGreevy y sus colegas de la NASA desarrollan Lentes de Datos, con los cuales el usuario puede mirar el interior de un mundo gráfico mostrado en un computador. En 1980, Andy Lippman desarrolla un videodisco interactivo para conducir en las afueras de Aspen. En 1981, Tom Furness desarrolló la “Cabina Virtual”, y G.J. Grimes, asignado a Bell Telephone Laboratories, patentó un guante para introducir datos, basándose en sensores ópticos, de modo que la refracción interna puede ser correlacionada con la flexión y extensión de un dedo. Mark Callahan, en 1983, construyó un HMD en el Instituto Tecnológico de Massachusetts. A los inicios de los 90, los sistemas de Realidad Virtual salen de los ambientes de laboratorios en busca de aplicaciones comerciales, apareciendo cabinas de entrenamiento para pilotos de guerra, simuladores de vuelo, recorridos virtuales, entre otras aplicaciones.
En la actualidad, estamos aún en presencia del crecimiento y consolidación de las técnicas y recursos de la Realidad Virtual, el cual ha sido posible gracias al esfuerzo e interés combinado de científicos, militares y visionarios, y porque no decirlo, al dinero de las empresas que ven en ella una nueva y prometedora plataforma de aprendizaje.
Actualmente existen muchas aplicaciones de este tipo de tecnología pero algo que se a revolucionado por la llegada de la realidad Virtual es la educación. El impacto generado por realidad virtual en la enseñanza, debido a su facilidad para captar la atención de los estudiantes mediante su inmersión en mundos virtuales relacionados con las diferentes ramas del saber, la hace una herramienta de gran ayuda para el aprendizaje de los contenidos de cualquier materia.
Las aplicaciones de realidad virtual consiguen un efecto llamado "inmersión", según el cual "los estudiantes pueden interactuar completamente con el ambiente artificial utilizando los sentidos del tacto, el oído, y la vista mediante dispositivos especiales que están conectados al computador, tales como "guantes de datos" y pequeños monitores de vídeo dentro de un casco. Estos aparatos tienen sensores que detectan el movimiento de forma precisa, repercutiendo en el mundo virtual en el que los estudiantes están inmersos"[3].
De hecho, la realidad virtual sumada a redes avanzadas de telecomunicación, permite imaginar un entorno de enseñanza, en el cual sea posible experimentar la presencia del profesor y de otros compañeros de estudio e intercambiar opiniones y material con ellos como si estuviéramos juntos sin necesidad de que ninguno de los participantes deba moverse del lugar en que se encuentre previamente al inicio de la clase. En este nuevo contexto el papel tradicional del profesor cambia, dejando de ser un transmisor de conocimientos, para convertirse en el instructor de unos estudiantes que aprenden gracias a la ayuda de la tecnología, que es la que proporciona recursos interactivos de aprendizaje. En estas condiciones "la realidad virtual puede ser un excelente profesor en cualquier materia" .
Con el acelerado cambio al que se ha sometido la informática, podemos apreciar nuevas tecnologías que se han creado a partir de estas aplicaciones computacionales, que más que una herramienta, ahora es el medio que conecta a lo real con lo virtual. La realidad Virtual se define como interactividad, es decir que para llamarse realidad virtual debemos interactuar en un mundo real, inmersos en mundo de realidad virtual, eso solo se logra con dispositivos especiales que involucran tanto el software como el hardware.
Los sistemas de realidad virtual, como cualquier otro sistema informático está basado en hardware y software para construir simulaciones. Ordenadores personales potentes, estaciones de trabajo y supercomputadores son ejemplos del tipo de hardware necesario para hacer simulaciones, pero si alguna cosa distingue claramente delante de la gente la realidad virtual son los dispositivos de entrada–salida que son muy especiales. Lo que los hace pocos y muy caros en el mercado, convirtiéndose en un problema para la utilización de esta tecnología en ambientes de enseñanza en colegios y universidades en nuestro país.
Para distinguir una instalación de Realidad Virtual como tal, es necesario que cumpla con ciertas condiciones, entre las que se destacan:
• Simulación: Capacidad de representar un sistema, cabe decir que ésta debe replicar aspectos suficientes de la realidad para convencer al usuario que constituyen una situación paralela. Es decir, una simulación del modelo o del mundo a experimentar, donde regirá una serie de reglas, no todas necesariamente iguales a las de la vida real.
• Interacción: Tener control del sistema creado. Para lograr la interacción existen diversas técnicas e interfaces hombre-máquina, que van desde teclado y mouse hasta guantes o trajes sensoriales. La interactividad con el mundo virtual supone que el usuario pueda mover objetos (además de a sí mismo) y modificarlos, y que tales acciones produzcan cambios en ese mundo artificial.
• Percepción: Es el factor más importante. Algunos sistemas de realidad virtual se dirigirán principalmente a los sentidos (visual, auditivo, táctil) por medio de elementos externos (Cascos de Visualización, Guantes de Datos, Cabinas, etc.), otros tratarán de llegar directamente al cerebro, evitando así las interfaces sensoriales externas, y otros, los más simples, recurrirán a toda la fuerza de la imaginación del hombre para experimentar una realidad virtual parcial. De este modo, el usuario puede creer que realmente está viviendo situaciones artificiales que el sistema computacional genera, alcanzando una sensación de “inmersión” en un ambiente digital. Además, en un sistema de Realidad Virtual las imágenes mostradas al usuario no se encuentran almacenadas en ningún sitio, son generadas dependiendo de la posición actual.
Los sistemas de Realidad Virtual poseen una base de datos con todos los elementos que componen el mundo virtual, a partir de la cual, generan la información que se mostrará al usuario. También debe existir realmente una dimensión de profundidad (tridimensionalidad), similar a la que ofrecen los simuladores de vuelo. Para conseguir este efecto, los objetos del mundo virtual deben tener una tercera dimensión que indique su profundidad en la pantalla. Los tres primeros elementos, son imprescindibles en cualquier sistema de Realidad Virtual. Algunos investigadores plantean que las tres bases de la realidad virtual son las “3i” (Interacción, Inmersión e Imaginación).
Para hablar de Interacción hay entre el mundo real y un ambiente virtual tenemos que hablar de los dispositivos que existen para tal actividad, algunos de ellos los nombramos a continuación:
El propósito de un dispositivo de posicionamiento es determinar las posiciones x,y y z y la orientación (yaw, pitch y roll) de alguna parte del cuerpo del usuario en referencia a un punto fijo. La mayoría de los tipos de dispositivos de interacción de realidad virtual tendrán un posicionador en ellos. Los HMDs (Head Mounted Displays) necesitan un posicionador para que la vista pueda ser actualizada para la orientación actual de la cabeza del usuario. Los guantes de datos (data gloves) y las palancas de mando (joysticks) de vuelo usualmente tienen posicionadores de tal manera que el icono de la "mano" seguirá los cambios de posición y orientación de la mano real del usuario. Los trajes de datos de cuerpo completo tendrán varios posicionadores en ellos de tal manera que los pies, la cintura, las manos y la cabeza virtuales estén todos esclavizados al usuario humano.
Cuando diseñamos o evaluamos un sistema de realidad virtual que recibirá información de un posicionador, es importante poner atención a la latencia (retardo), tasa de actualización, resolución y exactitud del sistema posicionador. La latencia es el "retardo entre el cambio de la posición y orientación del objetivo siendo seguido y el reporte del cambio a la computadora". Si la latencia es más grande que 50 milisegundos, ello será notado por el usuario y posiblemente puede causar náusea o vértigo. La tasa de actualización es la tasa a la cual el posicionador reporta datos a la computadora y está típicamente entre 30 y 60 actualizaciones por segundo. La resolución dependerá del tipo de posicionador usado y la exactitud usualmente disminuirá cuando el usuario aleja del punto de referencia fijo. Los dispositivos de posicionamiento de seis grados de libertad vienen en varios tipos básicos de tecnología: mecánica, electromagnética, ultrasónica, infrarroja e inercial. [1]
Un dispositivo mecánico es similar a un brazo de robot y consiste de una estructura articulada con eslabones rígidos, una base de soporte y un "órgano terminal activo" el cual es sujetado a la parte del cuerpo siendo posicionada, frecuentemente a la mano. Este tipo de posicionador es rápido, exacto y no es susceptible al temblor de la mano. Sin embargo, también tiende a afectar el movimiento del usuario, tiene un área restringida de operación y el problema técnico de posicionamiento de la cabeza y las dos manos simultáneamente es aún difícil.
Un posicionador electromagnético permite que varias partes del cuerpo sean posicionadas simultáneamente y funcionará correctamente si los objetos vienen entre la fuente y el detector. En este tipo de posicionador, la fuente produce tres campos electromagnéticos cada uno de los cuales es perpendicular a los otros. El detector sobre el cuerpo del usuario entonces mide la atención del campo (la fuerza y dirección del campo electromagnético) y envía esta información de regreso a la computadora. La computadora triangula la distancia y la orientación de los tres ejes perpendiculares en el detector relativos a los tres campos electromagnéticos producidos por la fuente.
Los posicionadores electromagnéticos son populares, pero son inexactos. Ellos sufren de problemas de latencia, de distorsión de datos y pueden ser inutilizados por grandes cantidades de metal en el entorno del área de trabajo o por otros campos electromagnéticos, tales como aquellos de otras piezas de grandes equipos de cómputo. Adicionalmente, el detector debe de estar dentro de un rango restringido desde la fuente o no será capaz de regresar información precisa, de tal manera que el usuario tiene un volumen de trabajo limitado.
Los dispositivos posicionadores ultrasónicos consisten en tres emisores de ondas sonoras de alta frecuencia en una formación rígida que forman la fuente para tres receptores que también están en un arreglo rígido en el usuario. Existen dos formas para calcular la posición y la orientación utilizando posicionadores acústicos.
A la primera forma se le llama "la fase coherente". La posición y la orientación es detectada calculando la diferencia en la fases de las ondas sonoras que alcanzan a los receptores desde los emisores comparadas a las ondas sonoras producidas por el receptor. "Mientras que la distancia que viaja el objetivo sea menor que una longitud de onda entre actualizaciones, el sistema puede actualizar la posición del objetivo".
El segundo método es el "tiempo–de–vuelo", el cual mide el tiempo en que el sonido, emitido por los transmisores en momentos conocidos, alcanza los censores. Solamente se necesita un transmisor para calcular la posición, pero el cálculo de la orientación requiere encontrar las diferencias entre los tres censores. A diferencia de los posicionadores electromagnéticos que son afectados por grandes cantidades de metal, los posicionadores ultrasónicos no tienen este problema. De cualquier modo, los posicionadores ultrasónicos también tienen un volumen restringido de trabajo y, peor, deben tener una línea de vista directa desde el emisor al detector. Los posicionadores de tiempo de vuelo usualmente tienen una baja tasa de actualización, y los posicionadores de fase coherente son sujetos a la acumulación de errores en el tiempo. Adicionalmente, ambos tipos son afectados por cambios de temperatura y presión y el nivel de humedad del ambiente de trabajo.
Los posicionadores (ópticos) infrarrojos usan emisores fijos en un arreglo rígido mientras que las cámaras o "celdas cuadradas" reciben la luz IR. Para fijar la ubicación del posicionador, una computadora debe triangular una posición basada en los datos de las cámaras. Este tipo de posicionador no es afectado por grandes cantidades de metal, tiene una tasa alta de actualización y una baja latencia. Sin embargo, los emisores deben estar directamente en la línea de visión de las cámaras o celdas cuadradas. Adicionalmente, cualesquier otras fuentes de luz infrarroja, alta intensidad de luz u otro brillo afectará el grado de corrección de la medida.
Finalmente, hay varios tipos de dispositivos posicionadores inerciales los cuales permiten al usuario moverse alrededor de un volumen comparativamente grande de trabajo ya que no hay un hardware o cable entre una computadora y el posicionador. Los posicionadores inerciales aplican el principio de conservación del momento angular. Los giroscopios en miniatura pueden ser sujetados a los HMDs, pero tienden a salir de cauce (hasta 10 grados por minuto) y ser sensitivos a vibración. El yaw, el pitch y el roll, se calculan midiendo la resistencia del giroscopio a un cambio en orientación. Si el eguimiento de posición es deseado, un tipo adicional de seguimiento debe de ser usado. Los acelerómetros son otra opción, pero ellos también tienden a salir de cauce y su salida es distorsionada por el campo de gravedad.
La realidad virtual y los ambientes virtuales van más allá de las interfaces típicas en el realismo de la metáfora visual. El apuntar y dar "clic" con un ratón sobre la mesa es muy útil en muchas situaciones, pero no suficiente para ambientes con inmersión.Entonces en vez de un teclado y un ratón, se han desarrollando guantes, ratones tridimensionales, palancas de mando flotantes y reconocimiento de voz. También se está estudiando la posibilidad de incorporar aromas en la interacción con el mundo virtual.[1]
Para sentir la flexión de los dedos, han aparecido tres tipos de tecnología de guante: sensores de fibra óptica, medidas mecánicas y galgas extensométricas. El Dataglove (originalmente desarrollado por la compañía VPL Research) es un guante fabricado de neopreno con dos lazos de fibras ópticas en cada dedo. Cada lazo está dedicado a un nudillo y esto puede ser un problema. Si un usuario tiene manos extra grandes o pequeñas, los lazos no corresponderán muy bien a la posición actual del nudillo y el usuario no será capaz de producir ademanes exactos. En un extremo de un lazo está un LED y en el otro está un fotosensor. El cable de fibra óptica tiene pequeños cortes a lo largo de su longitud. Cuando el usuario dobla un dedo, la luz escapa del cable de fibra óptica a través de estos cortes. Se mide la cantidad de luz que alcanza el fotosensor y que se convierte en una medida de cuanto se ha doblado el dedo. El Dataglove requiere recalibración para cada usuario. "Las implicaciones para un plazo más largo sobre el uso de dispositivos tales como el Dataglove- efectos de fatiga, recalibración durante una sesión- permanecen a ser explorados".
Figura 1. Guante Power glove
Fuente : Compañía Mattel
El Powerglove fue vendido originalmente por la compañía Mattel para el Sistema Entretenimiento Casero Nintendo pero, debido a su bajo precio, se ha usado ampliamente en investigación. El Powerglove es menos exacto que el Dataglove también necesita recalibración para cada usuario, pero es más áspero que Dataglove.
El Powerglove usa galgas extensométricas para medir la flexión de dedo. Una pequeña tira de plástico mylar es cubierta con una tinta eléctricamente conductora y colocada a lo largo de la longitud de cada dedo. Cuando los dedos son llevados rectos, una corriente eléctrica pequeña pasando a través de la tinta permanece estable. Cuando se dobla un dedo, la computadora puede medir el cambio en la resistencia eléctrica de la tinta.
La mano maestra diestra (Dexterous Hand Master- DHM) no es exactamente un guante sino un dermatoesqueleto que se sujeta a los dedos con bandas de velcro. Un sensor mecánico mide la flexión del dedo. A diferencia del Dataglove y el Powerglove, el DHM es capaz de detectar y medir el movimiento de lado a lado de un dedo. Los otros guantes sólo miden la flexión del dedo. El DHM es más exacto que cualquiera de los guantes y menos sensitivo al tamaño de la mano del usuario, pero puede ser difícil trabajar con éste.
La ventaja principal de los diferentes tipos de guantes es que proporcionan un dispositivo de interacción más intuitivo que el ratón o una palanca de mando. Esto es porque los guantes permiten que la computadora lea y represente ademanes de la mano. Los objetos en el ambiente pueden por lo tanto ser "cogidos" y manipulados, el usuario puede apuntar en la dirección deseada de movimiento, las ventanas pueden ser cerradas, etc.
Figura 2. Dexterous Hand Master (DHM)
Fuente : DHM
"Los ademanes deberían de ser naturales e intuitivos en el ambiente particular virtual. Las acciones deberían ser representadas visualmente y ser increméntales, inmediatas y reversibles para dar a una persona la impresión de actuar directamente en un ambiente". Wilson y Conway dicen que un conjunto básico de coman dos con ademanes para guantes ha sido desarrollado, pero es necesario más trabajo para expandir el conjunto más allá del mapeo actual simple.
Hay varias marcas de ratones 3D disponibles, todos con básicamente la misma tecnología: un ratón o bola de posicionamiento ha sido modificado para incluir un posicionador de ubicación y orientación de alguna clase. Este ratón modificado es favorablemente familiar e intuitivo a los usuarios – simplemente empujar el ratón en la dirección que tú lo quieras mover. Sin embargo, estos ratones no son muy útiles para interacciones diferentes de la navegación y de la selección de objetos.
La categoría final de los dispositivos de interacción es la palanca de mando flotante. Básicamente, este dispositivo trabaja exactamente de la misma manera que la palanca de mando convencional, pero no está sujeta a una base de apoyo sobre una mesa. En vez de eso, la palanca de mando está equipada con un posicionador de orientación de tal manera que el usuario simplemente sostiene éste en su mano y lo manipula. La mayoría de las palancas de mando de vuelo también tienen algunos botones sobre el poste para hacer "clicks" o seleccionar, similarmente a un ratón.
Los lentes resplandecientes de despliegue de cristal líquido (Liquid Crystal Display- LCD) tienen la apariencia de un par de anteojos. Un foto censor está puesto en estos anteojos de LCD con el único propósito de leer una señal de la computadora.
Esta señal le dice a los anteojos de LCD si le permite al lente pasar luz del lado izquierdo o derecho del lente. Cuando a la luz se le permite pasar a través del lente izquierdo, la pantalla de la computadora mostrará el lado izquierdo de la escena, lo cual corresponde a lo que el usuario verá a través de su ojo izquierdo. Cuando la luz pasa a través del lente derecho, la escena en la pantalla de la computadora es una versión ligeramente deslizada hacia la derecha. Los anteojos se conmutan de uno al otro lente a 60 Hertz, lo cual causa que el usuario perciba una vista tridimensional continua vía el mecanismo de paralaje. [1]
Los lentes de LCD resplandecientes son ligeros y sin cables. Estas dos características los hacen fácil de usar. Desgraciadamente, el usuario tiene que mirar fijamente y sólo a la pantalla de la computadora para ver la escena tridimensional. Ya que el campo de vista es limitado al tamaño de la pantalla de la computadora, por lo que el medio ambiente real se puede ver. Esto no proporciona un efecto de inmersión.
Los cascos colocan una pantalla enfrente de cada ojo del individuo todo el tiempo. La vista, el segmento del ambiente virtual generado y presentado se controla por la orientación de los sensores montados en el casco.
Figura 3 Usuario con casco y guante
Fuente : Pollemorus
La computadora reconoce el movimiento de la cabeza y se genera una nueva perspectiva. En la mayoría de los casos, se usan un conjunto de lentes ópticos y espejos para agrandar la vista y llenar el campo visual y dirigir la escena a los ojos. Cuatro tipos de cascos se discutirán a continuación:
Este tipo de HMD usa tecnología LCD para presentar la escena. Cuando se activa un píxel de cristal líquido, bloquea el paso de luz a través de él. Miles de estos píxeles están puestos en una matriz de dos dimensiones para cada despliegue. Ya que los cristales de líquido bloquean el paso de la luz, para presentar la escena una luz debe de brillar desde atrás de la matriz LCD hacía el ojo para proporcionar brillantez para la escena.
El casco (HMD) con LCD es más claro que la mayoría de los HMDs. Como la mayoría de los HMDs, este proporciona un efecto de inmersión, pero la resolución y el contraste son bajos. El problema asociado con la baja resolución es la inhabilidad de identificar objetos y de localizar la posición exacta de los mismos. Ya que los cristales son polarizados para controlar el color de un píxel, la polarización real del cristal crea un pequeño retardo mientras se forma la imagen en la pantalla. Tal retardo puede causar que el individuo juzgue incorrectamente la posición de los objetos.
Este tipo de HMD usa cables de fibra óptica para transmitir la escena a la pantalla. La pantalla es similar a un tubo de rayos catódicos (TRC) excepto que el fósforo es iluminado por la luz transmitida a través de los cables de fibra óptica. Idealmente, cada fibra debería de controlar un píxel. Pero debido a la limitación en el costo y fabricación, cada fibra controla una celda con varios píxeles.
El HMD proyectado proporciona mejor resolución y contraste que el despliegue de LCD. Este HMD es también de peso ligero. Más alta resolución y contraste significa que el individuo es capaz de ver una imagen con mayor detalle. La desventaja de este tipo de HMD es que es caro y difícil de fabricar.
Este tipo de HMD usa dos TRCs que son posicionados sobre el lado del HMD. Se usan espejos para dirigir la escena al ojo del individuo. A diferencia del HMD proyectado donde el fósforo es iluminado por cables de fibras ópticas, aquí el fósforo es iluminado por un rayo de electrones como es usual. El HMD con TRC es en muchas maneras similar al proyectado HMD. Este tipo de HMD es más pesado que la mayoría de los otros tipos debido a los componentes electrónicos añadidos (los cuales también generan grandes cantidades de calor). El usuario vistiendo este tipo de HMD puede sentirse incómodo debido al calor y al peso del HMD.
Este tipo de HMD usa una columna de 280 LEDs. Un espejo rápidamente oscila opuesto de los LEDs, reflejando la imagen a los ojos del usuario. Los LEDs son actualizados 720 veces por oscilación del espejo. Como la columna de LED se actualiza para cada columna de la pantalla virtual, el espejo redirige la luz al ojo del individuo, una columna a la vez, para formar la imagen de la pantalla virtual entera. Los HMDs con LED de columna única permiten al usuario interactuar con un mundo virtual y un mundo real simultáneamente. Este tipo de despliegue puede ser usado para crear una pantalla virtual que parece flotar en el mundo real. Uno de los problemas más comunes de los HMDs es que el cable conectando el HMD y una computadora restringe la movilidad del usuario. El usuario sólo puede moverse tan lejos como el cable lo permite. Si el cable no es manejado propiamente, el usuario puede pisarlo o enredarse en él. Además, la conmutación frecuente entre un mundo virtual y el mundo real es tediosa y cansada.
Monitor Omni-direccional Binocular (Binocular Omni-Orientation Monitor- BOOM)
El monitor omni-direccional binocular[4] ,se monta sobre un brazo mecánico articulado con sensores de posicionamiento localizados en las articulaciones. Se usa un contrapeso para estabilizar el monitor, así que cuando el usuario libera el monitor, éste permanece en su lugar. Para ver el ambiente virtual, el usuario debe sostener el monitor y poner su cara enfrente de éste. La computadora generará una escena apropiada basada en la posición y orientación de las articulaciones del brazo mecánico.
Figura 4. Esquema de la Cueva
Fuente : The CAVE(tm)*)
La Cueva (The CAVE(tm)*) es un entorno de vídeo y audio 3D de alta resolución multipersonal. En la versión actual, los gráficos son proyectados por detrás en estéreo a tres paredes y el suelo, y se ven con gafas estéreo. Uno de los usuarios utiliza un sensor de posición que se mueve dentro de los limites de visualización, lo que produce una actualización de la perspectiva y de las proyecciones estéreo del entorno y las imágenes por tanto se mueven con el usuario. Por tanto las proyecciones estéreo crean imágenes 3D que parece que tienen una presencia dentro y fuera de la sala de proyección continuamente.
Para el usuario con gafas estéreo, la pantallas de proyección se vuelven transparentes y el espacio de imágenes 3D parece como si se extendiera al infinito. Por ejemplo una trama repetible se puede proyectar en el suelo y las paredes de manera como si el usuario ve un suelo continuo que se extiende fuera de la sala de proyección. Objetos de tres dimensiones como mesas y sillas parece que estén presentes dentro y fuera de la sala de proyección. Para el usuario estos objetos están realmente allí hasta que los intenta tocar o andar fuera de los límites de la sala de proyección. Como un comentario divertido, se producen golpes en las pantallas de proyección donde los usuarios han olvidado de ser cuidadosos cuando andan dentro de esos límites invisibles.
Figura 5 Operadores en la Cueva
Fuente : The CAVE tm
Específicamente, la Cueva (the CAVE tm) es un teatro de 10x10x9 pies (3x3x2,7metros), hecho con tres proyectores por detrás para las paredes del frente, izquierda y derecha y una pantalla de proyección para el suelo. Proyectores de color (1024x768 estéreo) a 96 Hz, que dan aproximadamente una resolución de 2,000 píxel lineales a la imagen compuesta envolvente. También existe un soporte de audio para varios usuarios que hablen. Se detecta la posición de la cabeza y la mano. Gafas estéreo se usan para separar los campos alternativos que van a los ojos. Se utiliza un supercomputador Silicon Graphics Power Onyx con tres motores Infinite Reality Engines para crear las imágenes que se proyectan en las paredes y el suelo.
Un problema con los sistemas actuales de realidad virtual es la falta de estímulos para el sentido del tacto. Por ejemplo, si un usuario que trata de tomar una copa virtual, no hay una manera no visual para informarle que la copa está en contacto con su mano virtual. Tampoco hay un mecanismo para no permitir a la mano virtual traspasar la copa. La investigación háptica intenta resolver estos problemas y puede ser subdividida dentro de dos subcampos, retroalimentación de fuerza (quinestésica) y retroalimentación táctil.
La retroalimentación de fuerza es el área de la háptica que trata con dispositivos que interactúan con músculos y tendones, y dan al ser humano una sensación de que se aplica una fuerza. Estos dispositivos principalmente consisten de robots manipuladores
que proporcionan una reacción de fuerza al usuario con fuerzas correspondientes al ambiente virtual en el que está el órgano terminal.
La retroalimentación táctil trata con dispositivos que interactúan con los nervios terminales en la piel los cuales indican la presencia de calor, presión y textura. Estos dispositivos típicamente han sido usados para indicar si el usuario está en contacto con un objeto virtual. Otros dispositivos de retroalimentación táctil han sido utilizados para estimular la textura de un objeto virtual.
Figura 6. Guante para interacción táctil
Fuente : CyberGrasp
Los despliegues hápticos por sí solos son casi inútiles, pero cuando se usan en combinación con un despliegue visual, pueden ser mas útiles que un despliegue estereoscópico o un despliegue con múltiples puntos de vista. Batter y Brooks hicieron un experimento para probar que las interfaces hápticas realmente afectaron lo bien que un usuario pudo aprender del sistema. Experimentaron con varios grupos de una clase de Física en donde estaban aprendiendo campos electrostáticos. Al grupo experimental (grupo piloto) de la clase se le permitió usar un dispositivo de retroalimentación de fuerza en el ejercicio de laboratorio mientras que al grupo de control no se le permitió. El grupo experimental tuvo un mejor desempeño que el grupo de control debido a su acceso al despliegue háptico en su trabajo de laboratorio.
Para diseñar correctamente una interfaz háptica para un ser humano, se deben tomar en consideración la anatomía y la fisiología del cuerpo. En la retroalimentación de fuerza, se deben considerar las proporciones y fuerzas del promedio de las articulaciones. Ya que las manos son lo mas frecuentemente usado en las interfaces hápticas, se deben considerar las propiedades de la mano cuando diseñamos una nueva interfaz. En la retroalimentación táctil, la interfaz debe seguir varias variables del sentido humano del tacto. Los dedos son una de las partes mas sensitivas de la piel, teniendo hasta un máximo de 135 sensores por centímetro cuadrado en la yema de un dedo. También, el dedo es sensitivo hasta 10,000 Hertz de vibraciones cuando siente texturas y es más sensitivo a 230 Hertz. Los dedos no pueden distinguir entre dos señales de fuerzas por encima de 320 Hertz; solo son sentidas como vibraciones. Las fuerzas sobre dedos individuales deberían de ser menos de 30-50 N en total. Para el "usuario promedio", el dedo índice puede ejercer 7 N, el dedo medio 6 N y el dedo anular 4.5 N sin experimentar molestia o fatiga.
Estudios muestran que hay una fuerte relación entre las sensaciones sentidas por una mano humana, tal como un objeto deslizándose, y los movimientos que la mano estaba haciendo para adquirir ese conocimiento, tal como sostener un aparato experimental. El sistema humano háptico está construido de dos subsistemas, el subsistema motor y el subsistema sensorial. Hay una fuerte relación entre los dos sistemas. A diferencia del sistema visual, no es solamente importante lo que el sistema sensorial detecta sino qué movimientos fueron usados para obtener esa información.
Los seres humanos usan dos diferentes formas de exploración háptica: la activa y la pasiva. La exploración háptica activa es cuando el usuario controla sus propias acciones. La exploración háptica pasiva es cuando la mano o el dedo del usuario es guiado por otra persona. Cuando el usuario asume el control frecuentemente hace errores y se ha apreciado que muchas formas pueden ser identificadas mas rápidamente con exploración háptica pasiva. Experimentos comparando la exactitud de las estimulaciones táctiles activas contra las pasivas muestran que las hápticas pasivas son más exactas en identificar formas como un todo. Cuando el dedo de un sujeto era guiado alrededor de un objeto de dos dimensiones, tal como el perfil de un cisne, ellos tuvieron mayor probabilidad de identificar el objeto. Algunos estudios sugieren que los observadores activos hacen "errores" con mayor distracción y pueden tener dificultad al diferenciar entre las trayectorias de exploración erróneas y correctas.
Cuando se es enfrentado a una tarea multidimensional, tal como mover un objeto en un espacio de tres dimensiones, estudios en la Universidad de Carolina del Norte en la ciudad de Chappel Hill han mostrado que los usuarios descomponen la tarea en una serie de problemas de una o dos dimensiones. Ellos moverían un objeto en el plano x-y antes de moverlo a su posición final en la dirección z. Esta descomposición dimensional pudo ser debido al experimento particular, o pudo sostener una pista de cómo la gente piensa acerca de tareas multidimensionales.
Otro factor importante en sistemas de realidad virtual es la situación cuando una pista visual y una pista háptica están en contradicción. La pista visual típicamente se impone la pista háptica. Este hecho pudiera ayudar a resolver "el problema de la pared rígida" el cual es el siguiente. Es muy difícil crear una máquina que correctamente simulará el encuentro de un objeto virtual con un objeto duro no movible. Si al usuario se le presenta con una pista visual que le indica que el órgano terminal ha alcanzado una superficie dura, no obstante la interfaz háptica no reconoce la fuerza de una superficie dura y rígida, sino una aproximación lineal de la ley de Hooke, el usuario puede ser engañado pensando que la pared virtual era rígida.
Es un dispositivo háptico que se caracteriza por pequeños estimuladores vibro táctiles para cada dedo añadido a Cyberglove. Cada estimulador puede ser programado individualmente para variar la fuerza de la sensación de tacto.
Figura 7. Interacción por medio de CyberTouch
Fuente : Cybertouch
El conjunto de estimuladores pueden generar sensaciones simples como impulsos o vibraciones sostenidas y se puede usar en combinación para producir conjuntos de realimentación táctil complejos. Los desarrolladores de software pueden diseñar su propio perfil de actuación para conseguir su sensación táctil deseada, incluyendo la percepción de tocar un objeto sólido en un mundo virtual simulado. CyberTouch como una opción para un sistema de realimentación táctil es esencial para cualquiera que quiera utilizar las manos para interaccionar con objetos en un mundo virtual y es un producto que nos deja sentir un objeto virtual y saber que lo tienes en la mano sin necesidad de mirar.
CyberGrasp (ver Figura 6) permite a los usuarios de CyberGlove® "tocar" objetos generados por ordenador y experimentar realimentación realística de fuerza a través de la interfaz más natural posible, la mano. CyberGrasp es un exoesqueleto ligero no obstructivo que refleja fuerza, que se pone sobre Cyberglove y añade una realimentación resistiva de fuerza a cada dedo. Con este sistema los usuarios pueden explorar las propiedades físicas de objetos generados en 3D y manipularlos en un mundo virtual simulado.
Las fuerzas relacionadas con coger objetos se ejercen a través de una red de tendones que se transmiten a las puntas de los dedos a través de un exoesqueleto y se pueden programar para evitar que los dedos del usuario penetren o aplasten un objeto virtual. Los tendones vaina están diseñados específicamente para una comprensibilidad y una fricción baja. Los actuadores son motores de corriente continua puestos en una parte de la mesa. Hay cinco actuadores, uno para cada dedo. El dispositivo ejerce fuerzas de tipo cofer que son perpendiculares a las puntas de los dedos a través de una serie de movimientos posibles y fuerzas que se pueden especificar individualmente. CyberGrasp permite un movimiento completo de la mano y no obstruye el movimiento del que lo lleva. El dispositivo es totalmente ajustable y diseñado para poder ser adaptado a una amplia variedad de manos.
Intenta aumentar la información del mundo real, añadiéndole información gráfica y textual, para resaltar datos o recabar información sobre el entorno. Es la combinación de gráficos 3D y texto superpuesto sobre imágenes y vídeo reales en tiempo real. La realidad Aumentada es una tecnología en la cual la realidad es realzada mediante el uso de información instructiva de objetos o datos. El usuario obtiene información visual suplementaria, y ésta puede ser dibujada a partir de objetos en la realidad, por ejemplo una pieza especifica de un computador o la base de datos que corresponde a éste.
Figura 8. Características de una CPU vistas desde una lente de cristal de Realidad aumentada
Fuente : CyberGlove
La tecnología actual permite el desarrollo de herramienta, dejando atrás manuales, mapas y otros tipos de información de apoyo para el trabajo en terreno. Por ejemplo, un profesional del área de la geología, puede hacer su trabajo en terreno sin tener que interpretar una mapa geológico, solamente utilizará unos lentes de cristal líquidos y accederá de esta forma a la información que requiere. La realidad aumentada puede hacer uso de los mismos dispositivos utilizados para ambientes virtuales.
El aporte que ha realizado la computación gráfica a las diversas actividades ha sido de una magnitud insospechada, es así que actualmente un trabajo de ingeniería o arquitectura no se concibe sin el porte de la informática. A su vez, grandes avances de la computación se deben a los requerimientos que las tareas gráficas le han exigido. La información gráfica se maneja en el computador básicamente de dos maneras: como un mapa de puntos (bit-maps) o como una geometría vectorial. las imágenes de puntos se utilizan en el procesamiento de fotografías digitalizadas (por scanner o cámara digital) o en dibujos sencillos (paint), y consisten en una trama de puntos de color (pixeles) que representan la imagen. Se caracterizan por su facilidad de manipulación cambiando la tonalidad e los puntos, pero están limitadas en resolución y precisión, además que son planas (bi- dimensionales). El archivo digital se puede conservar en una diversidad de formatos, entre los que podemos mencionar: BMP, PCX, TIF o JPG.
Por su parte, los archivos geométricos guardan la información precisa de las formas gráficas, a través de un sistema de coordenadas cartesianas (X,Y). De este modo, cada figura se identifica por sus puntos extremos, y pueden ser representadas a cualquier escala o calidad de imagen (son independientes de la resolución). Naturalmente, la definición y manejo de las figuras geométricas son más complejas, pero permiten trabajar con dimensiones exactas e incluso con formas tridimensionales, porque basta con agregar un tercer eje de coordenadas (Z). Estos programas son denominados CAD (computer-aided design o diseño asistido por computador). Por ello ahora no es difícil encontrar diseños de construcciones, automóviles, computadores y otros, realizados con programas CAD.
La información gráfica consiste en una base de datos numérica almacenada en el computador, que define cualquier tipo de forma o volumen. Para poder visualizarlos, es necesario interpretarlos y generar una imagen en la pantalla.
Figura. 9 - Diseño Tridimensional 3 D Stdio.Max
Fuente : Imagen tomada 3StudioMax
Cuando los diseños están prácticamente completos, se aplican fórmulas de iluminación y presentación de superficies para producir imágenes más realistas. Estas propiedades son aplicadas con mayor o menor detalle de exactitud dependiendo de las exigencias requeridas. Otra potencialidad que se le ha adicionado a estos productos es la animación, utilizada para diversos diseños. Las animaciones se utilizan, por ejemplo, para desplegar superficies de los objetos o escenarios completos. En los entornos de Realidad Virtual las animaciones se utilizan también para representar movimientos de los objetos, como los controles de un vehículo, y mediante dispositivos montados sobre la cabeza, obtener vistas estereoscópicas y recorridos.
Otro aspecto importante dentro de la computación gráfica son los tipos de software, éstos pueden ser clasificados en dos grandes grupos: paquetes generales de programación y aplicaciones para propósitos especiales. En los primeros podemos reconocer las librerías de funciones gráficas que se utilizan con un lenguaje de programación de alto nivel, como el leguaje C. En el segundo grupo se pueden clasificar los productos diseñados para personas que no son programadores, este es el caso de los CAD. De este modo, la computación gráfica se encuentra en diversos campos, que ya son parte de nuestra vida cotidiana, como el cine, diseño de edificios, prendas de vestir, avisos publicitarios, edición de periódicos, revistas, textos de estudios, muebles, vehículos y juegos por computadoras en general.
Los productos de software para el desarrollo de aplicaciones de RV se fundamentan en los conceptos de computación gráfica presentados previamente, es por ello que muchas de las características mencionadas aquí son coincidentes con las anteriores. Pero se establece un conjunto de distinciones específicas y exigencias mayores que diferencian los programas de Realidad Virtual con los otros software gráficos e incluso con programas de modelación tridimensional o animación realista. Para comenzar diremos que el software de desarrollo debe ser coherente con la arquitectura del computador en que se usará el producto. Aunque pueda sonar obvio, en este caso es muy relevante puesto que el equipo deberá responder a los requerimientos de procesamiento del producto. En el diseño tridimensional, los software de Realidad Virtual son muy similares a los programas CAD, pero agregan capacidades de navegación en tiempo real, interacción con el usuario, detección de colisiones, audio, programación de comportamientos, etc. De este modo en los programas de RV encontraremos comúnmente:
- Importación de modelos: Capacidad de importar formas 3D para incorporarlas en una determinada aplicación. Generalmente son provenientes de un programa CAD y se utiliza mayormente el formato DXF(drawing exchage format). También en algunos casos los programas RV permiten exportar objetos en este mismo formato. Las nimportaciones de formas no están ajenas a problemas, para lo cual se han desarrollado filtros especiales que manipulan el archivo para resolver las dificultades que se presentan como diferencia de forma poligonal básica (cuadriláteros contra triángulos), exceso de polígonos por formas,
Secuencias de vértices incompatibles, estrategias de texturización distintas (aunque frecuentemente la importación se refiere sólo a geometría).
- Librerías: La mayoría de los programas de RV están provistos de librerías 3D, con formas básicas o primitivas tales como cajas, esferas, conos, pirámides, etc. que sirven para generar formas compuestas. También cuentan con librerías de objetos complejos, texturas, etc. Es útil mencionar que estas librerías permiten que el diseñador re-utilice muchas formas que simplemente decoran el ambiente virtual.
- Operaciones Geométricas: Consiste en las capacidades de manipular los objetos creados en una posición definida, típicamente referida a las coordenadas cartesianas, y a partir de éstos se puede trasladar, rotar o re-escalar a otra posición. Eliminando la forma original o duplicándola. Esto implica internamente un cambio en las tablas de vértices de los objetos. Se incluyen ocasionalmente operaciones booleanas y agrupamiento de formas, de modo que se puedan crear objetos compuestos operando o asociando distintas formas simples.
- Nivel de Detalle: Esta característica conocida en los textos como LOD (level-ofdetail) permite la optimización de la visualización de una escena virtual, al cambiar una forma con un alto nivel de detalle, por otra más simple, dependiendo de la distancia del punto de vista. De este modo, el objeto es reemplazado o se hace invisible si el observador está en movimiento o muy distante, y cuando está quieto y cercano, se despliega la forma más compleja.
- Animación: Corresponde a la asignación de una traslación o rotación a un objeto en un periodo de tiempo, sincronizado con la navegación por el ambiente virtual. Estos movimientos generalmente equivalen a comportamientos el mundo virtual (abrir una puerta, desplazar un vehículo) y pueden ser automáticos u originados por algún evento (interacción con el usuario o con otro objeto).
- Articulado: Se refiere a que los objetos puedan ser organizados en jerarquías; es decir, que partes componentes de un objeto osean propiedades de movimiento distintas a otras partes, pero supeditadas al total. Un ejemplo de esto son las ruedas de un automóvil, que pueden girar en un sentido, pero a su vez; debe desplazarse en la dirección del vehículo completo.
- Detección de colisiones: Es una característica que permite identificar cuando un objeto intercepta a otros, de modo que pueda ser obstaculizado el movimiento del objeto, de manera similar a si éstos fueran sólidos, como en el mundo real.
- Propiedades físicas: Adicionalmente se presenta una serie de atributos relacionados con características físicas, como masa o roce, reconocimiento de gravedad (movimiento vertical acelerado en proporción al tamaño o peso) e incluso de ascensión (salto sobre el objeto).
- Color y texturización: Asignación de colores a las superficies y utilización de texturas digitalizadas. Incluyendo propiedades de transparencia (para generar objetos de textura, como árboles o nubes) y secuencias
(como videos).
- Fuentes de luz: Definición de iluminación ambiental y focos de luz con cierta posición, orientación, intensidad e incluso colores propios. Ocasionalmente con movimientos propios.
- Incorporación de audio: Es la propiedad de asociarle a los objetos, de la aplicación virtual, un sonido que les corresponda en el mundo real. Un ejemplo de esto es el caso de un motor que al ser encendido, emite el ruido correspondiente. Una característica importante es controlar el volumen en relación a la distancia existente entre el objeto y el navegador. También se puede incorporar información táctil, que establezca una retro-alimentación física con el usuario (feed-back), a través de dispositivos especiales. Así como otros sentidos en exploración (sináptica, temperatura, etc.)
- Lenguajes de programación: Esta propiedad corresponde a que el software disponga de comandos de control que dicten comportamientos de los objetos y manejen datos de entradas y salidas.
- Manipulación de eventos: Refleja la capacidad de activar un comportamiento al interactuar con un determinado objeto. Esto implica reconocer la posición y acción del usuario, interpretar una programación y modificar la geometría consecuentemente.
- Configuración de dispositivos múltiples: Consiste en permitir la incorporación de distintos dispositivos de entrada y salida de datos, como elementos de visualización o interacción del usuario (por ejemplo, cascos y guantes).
- Mundos paralelos: Se refiere a la generación de ambientes virtuales constituidos por sub-mundos, en los cuales el navegante puede interactuar al momento que ingresa a cada uno de ellos. Esto con el fin de disminuir la complejidad que se tendría si fuera un solo mundo completo y por ende optimizar el procesamiento.
- Conectividad en red: Permite que el mundo virtual pueda ser utilizado en una red computacional, a través de diversos dispositivos o señales de entrada y salida, y además que permita la interacción de diversos usuarios en una misma aplicación. Un ejemplo de esto son los juegos multiusuarios
- Exportación en VRML: Consiste en exportar las aplicaciones virtuales en lenguaje VRML (Virtual Reality Modeling Language), que pueden ser utilizadas ampliamente en Internet, por constituir una descripción de bajo nivel.
Un programa de Realidad Virtual presenta una estructura de mayor complejidad que lo normal de un software computacional, debido a que, por un lado, constituye un ambiente tridimensional que se extiende hasta capacidades multimediales, a la vez que dispone de una programación específica y el control de múltiples dispositivos externos, todo funcionando y modificándose en tiempo- real. Esto establece una amplitud sofisticada de características, que se han descrito previamente en dos procesos principales: el desarrollo de la aplicación, en el cual se utiliza el programa para diseñar el escenario 3D, incorporar el audio, programar los comportamientos y configurar dispositivos, y otra actividad es la navegación interactiva, en que se puede visualizar, recorrer y manipular el ambiente virtual de acuerdo con lo preparado en el desarrollo. En ese omento actúan los siguientes aspectos del software RV[2]
Entradas y Salidas: Consiste en la definición de los diferentes dispositivos de entrada y salida de datos que utilizará la aplicación virtual. Además del mouse y del monitor, usualmente los sistemas de RV utilizan joystick, rastreadores, visualizadores estereoscópicos, trajes de datos, etc. Los cuales deben ser adecuadamente reconocidos y controlados por el software, evitando los conflictos y asegurando la transmisión de datos en tiempo real. Muchos de estos dispositivos alteran antecedentes de la aplicación virtual
durante su utilización, como el punto de vista del usuario, la orientación, activación de eventos, etc. Debemos agregar que al trabajar en red se suman nuevas entradas que deben ser gestionadas apropiadamente.
Base de Datos: El almacenamiento de la información de los objetos y del mundo virtual es realizado n la base de datos del mismo. Lo que se almacena en este archivo de descripción son los objetos, los pro gramas que describen las acciones de estos objetos o del usuario, métodos de iluminación, mecanismos de control y soporte del hardware. La descripción de los ítem almacenados es la siguiente:
e. Programación: Un mundo virtual consistente en objetos estáticos es sólo un diseño apacible. muchos investigadores y entusiastas de la RV han confirmado que la interacción es la clave del éxito e interés de la realidad virtual. Esto requiere definir las acciones que los objetos realizarán por ellos mismos y cuando interactúe el usuario con éstos. Lo que se denomina generalmente, “guión del mundo virtual”. Algunos autores dividen estos guiones de comportamiento en 3 tipos básicos: Guiones de movimiento, guiones de reacción ante un evento y guiones de conexión. Los guiones pueden ser textuales o estar compilados en un programa estructurado. En el uso de lenguajes de programación para RV ha sido considerado como pionero VPL search con su Body Electric System. Este lenguaje fue diseñado para Macintosh. En general, los productos de RV no poseen lenguajes de guiones comunes entre ellos. Lo que sí se puede afirmar es que gran parte de ellos tiene como base de su estructura el lenguaje de programación C. Los tipos básicos de guiones son los siguientes:
El usuario debe dar alguna indicación de retroalimentación de la interacción cuando el cursor virtual seleccione o toque un objeto. Un sistema ordinario tiene sólo una retroalimentación (feedback) visual para reconocer que el cursor (que actúa de mano virtual) penetra un objeto. alternativamente, una señal de audio puede ser generada para indicar una colisión. Algunos sistemas sólo utilizan un simple tacto como feedback, otros producen una vibración en el joystick para indicar la colisión, etc.
f. Procesamientos: Durante la utilización de la aplicación virtual se realiza un intenso procesamiento e datos en tiempo real, esto es, a la misma velocidad que visualiza el usuario. Básicamente es un procesamiento de la imagen visual, pero a su vez interviene un complejo cálculo geométrico, un procesamiento del audio, una interpretación de la programación y un control de los dispositivos de entrada y salida. Primero se debe identificar la posición del punto de vista y de su orientación (sentido de la visión), que puede estar dictada por el mouse en alguna configuración 3D o por un rastreador, o por una combinación de ambos. Además, identificar la activación de algún evento, por colisión de un objeto con apuntador 3D o un guante de datos debidamente localizado). Si esto se produce, interpretar el código de programación activado, para modificar la geometría correspondiente (trasladar un objeto o detener un movimiento). A la vez que se revisan todas las rutinas de animación actualmente activas que establecen un desplazamiento en cada secuencia de tiempo.
Luego de determinar la situación del modelo geométrico, se debe calcular la proyección en el plano de visión correspondiente (doble si es estereoscópico), descartando las no cubiertas por el ángulo de visión, omitiendo las líneas ocultas, calculando las aplicaciones de texturas y los tonos de color de las superficies, de acuerdo con las fuentes de iluminación definidas, sombreamientos y algoritmos de render. Posteriormente generar la imagen visual y activar las reacciones en dispositivos especiales (estímulos de fuerza en joystick) según la situación de los objetos con el usuario.
En el mercado existe una gran variedad de software para desarrollo de aplicaciones en RV. Todos los productos se caracterizan por diversas opciones para color, luz, sonido, cámaras, texturas y otras cualidades. Debemos señalar que actualmente todos dirigen sus aplicaciones hacia Internet mediante la obtención de mundos virtuales, objetos y aplicaciones 3D, en general, bajo el estándar VRML. A continuacion se realiza una descripción general de algunos de los productos disponibles en el mercado y sus potencialidades varían en las características señaladas anteriormente, no siendo la intención realizar una comparación ni un estudio exhaustivo de los mismos. Los programas, en su mayoría, permiten exportar e importar archivos desde diferentes formatos, así se tienen productos que generan ambientes virtuales en diversos formatos. Si un determinado producto genera mundos virtuales en un formato propio debe poseer su propio navegador, es así que todos aquellos que diseñan aplicaciones en VRML utilizan browser para Internet, cuyo formato de interpretación es similar para todos estos últimos. [2]
RayDream Studio: Este es un conjunto integrado de aplicaciones de la empresa Metacreations. No es un software sofisticado de modelamiento pero vale la pena considerarlo. Primeramente, es accesible en precio. Es bueno para laboratorios educacionales puesto que existen versiones para Mac y para Windows. El programa es fácil de usar. Las interfaces de usuario han sido diseñadas según un formato gráfico. Un elemento clave es la multifuncionalidad, puesto que se ha incorporado un navegador a través del cual se puede elegir, diseñar e incorporar objetos a partir e una librería y efectuar modificaciones tales como iluminación, deformaciones, efectos de renderizado, animación, etc. Existen objetos, cámaras, luces, árboles y objetos animados, que pueden ser controlados a través e gráficas de Windows. Un monitor de gran resolución puede ser de mucha ayuda para trabajar con este software. Mallas y complejas modelaciones se realizan en ventanas separadas y de fácil retorno a la escena principal, esto puede ser poco manejable en un monitor pequeño.
3D Open System : Es una herramienta para desarrollar aplicaciones y mundos virtuales dinámicos de alta efectividad en 3D. Se puede operar en varias plataformas, incluyendo DOS, OS/2, Windows 9x/NT y Unix. Open System permite crear mundos 3D con visualización en tiempo real e incluye interiores y exteriores 3D, bjetos estáticos y móviles, imágenes JPG, luces, color dinámico 3D, efectos, videos AVI, sonidos (MID, MP3 AV), fondos y soporte para documentos HTML. Se pueden crear mundos ilimitados en tamaño y puede anidar nos mundos en otros.
V-Realm: Este es un paquete que permite crear objetos3D y mundos para ser vistos mediante el Browser V-Realm u tros compatibles con el estándar VRML 1.0. Sus características incluyen múltiples editores fáciles de manipular, texturas, luz y funciones para cámaras, como un buen editor individual y uno para la agrupación de objetos. Todo basado en comandos VRML. Además, soporta formatos GIF, JPEG y RGB para archivos de textura. Posee habilidades prácticas para cortar, copiar y pegar entre archivos VRML. Posee herramientas para manipular formas 3D tales como transformaciones, re-modelado, despliegues simultáneos de escenas y otros. incluye un programa de traducción que importa archivos desde 3D Studio, Autocad, True Type Font y otros.
Internet Space Builder: Es un editor 3D para diseñadores Web, permite la creación de mundos virtuales y publicarlos en Internet. puede diseñar y editar escenas y objetos 3D usando operaciones booleanas (suma y resta) sobre un rango de formas primitivas como esferas, pirámides, conos y cilindros. Puede también importar y exportar escenas y objetos en formato VRML .0. Pueden ser vistas las creaciones en la mayoría e los browser de VRML. Internet pace Builder posee una gran galería de formas, texturas, pinturas, objetos y videos. Permite crear puntos de estas adicionales (cámaras) y posee características avanzadas de mapeo de texturas, color y transparencia. puede también importar y exportar mundos en formato VRML 2.0 comprimido (GZIP), además, renombrar y convertir formatos de archivos de otro destino. Soporta VRML 1.0, puede procesar archivos BMP, GIF, JPG y NG de imágenes e importar archivos 3DS, DXF y otros, puede importar objetos MUS y exportarlos en formato DXF.
SitePad Pro: Es un ambiente de desarrollo integrado simultáneamente para browser de HTML yVRML. Incluye un editor que posee una sintaxis de manipulación de colores. Posee herramientas de chequeo de sintaxis para HTML, BScript y JavaScript y puede construir sus propias aplicaciones usando Javascript y Vbscript. Todas las unciones de JpadPro son también incluidas en SitePad Pro. La edición de texto limita la descripción geométrica pero le otorga gran precisión y coherencia a los archivos. Usualmente se utiliza como revisor de archivos VRML.
3 DEM: Permite principalmente crear escenas terrestres en tres dimensiones de baja resolución, animación de vuelo en tiempo real y mundos VRML de variados tamaños y diversas fuentes de datos. 3 DEM utiliza librerías de SGI/Microsoft OpenGL para producir modelos 3D de alta velocidad. Puede renderizar imágenes en 16 o 24 bits de color. La renderización de imágenes puede ser azul rojo (requeridos ara visualización estereoscópica con anaglifos) o proyecciones de color 3D requeridos para gafas de obturación (LCD).
Virtus Walkthrough: Este es el software inicial de la serie Virtus. Posee excelentes controles sobre uces, fácil acceso a texturas y edición de formas (Shapes). Puede crear modelos VRML para publicar modelos en Internet. Trabaja con varias ventanas con vistas planas, elevaciones y perspectivas realistas para chequear el ambiente creado. Paletas de herramientas y controles gráficos facilitan su uso, pero la ejecución y complejidad dependen mucho del equipamiento.
Superscape VRT: Es un sistema profesional para el diseño e mundos 3D interactivo sobre plataforma PC. Estos mundos pueden ser publicados en VRLM en Internet y usar su navegador Viscape, como también navegar con el browser propio para Visualizar. También se pueden crear mundos mediante su versión gratuita 3D-WebMaster. Superscape está compuesto de 7 editores que permiten la creación de sus aplicaciones. En éstos se pueden desarrollar mundos a partir de objetos 3D, texturas y sonido utilizando editores de formas, imágenes y sonidos, entre tros. A los objetos se les puede asociar propiedades tales como: dinámica, velocidad angular, gravedad y otros, además de incorporar comportamientos mediante el uso del lenguaje interno de Superscape llamado CL Superscape Control Language). Posee librerías que contienen texturas, objetos y sonidos, los cuales pueden ser utilizados libremente por el diseñador. VRT soporta un gran número de tarjetas gráficas, dispositivos de entradas y tarjetas de sonido.
Todo circuito electrónico necesita un medio para ensamblarlo, esta es la función de los circuitos impresos ( PCB ). Originalmente vienen en placas vírgenes de baquelita o fibra de vidrio y una capa delgada de cobre en el cual se plasma o diseña el circuito basado en el diagrama o esquema del circuito. Es el circuito impreso el que unirá todos los componentes creando pistas adecuadas para tal fin.
Esquema de fabricación de circuitos impresos
Investigación de los diferentes métodos de fabricación de tablillas de circuitos impresos
c. Fotográfico
d. Trought holr with solder mask over bare coper
(Agujero del canal con el coper pelado del excedente de la máscara de la soldadura). Multicapa
En nuestro proyecto se utilizara el método fotográfico
Definir Realidad Virtual (RV, o simplemente VR, del inglés Virtual Reality), es difícil. Existen posiblemente antas definiciones como investigadores haya, pues su reciente y rápida evolución no ha permitido establecer una definición clara. De este modo, no resulta extraño que la Realidad Virtual resulte ser relativa para diferentes personas y en diferentes situaciones. Más que “definirla” veremos un conjunto de definiciones, donde cada una entrega una idea de lo que se debería entender por Realidad Virtual:
Otro de los factores importantes para tener una sensación tridimensional es la visión en profundidad, que permite percibir el volumen de los objetos y la espacialidad del ambiente virtual. Para esto, además de la representación en perspectiva de los modelos, es relevante incorporar la “estereoscopía” o visión doble. Esto se refiere a la diferencia entre as imágenes del ojo izquierdo y derecho, que son enviadas por el cerebro en una imagen tridimensional única. En la cual los cambios de perfil entre los objetos (llamado “mapa de disparidad”) indican la distancia con respecto al observador, identificando las profundidades relativas entre éstos. Lo cual e puede reconocer al taparse un ojo e intentar confirmar con la mano la posición de elementos cercanos. Difícilmente se acierta con precisión, porque falta la imagen del otro ojo).
Figura 10. Visión Estereoscópica
Fuente: Wheatstone
La generación de imágenes con profundidad fueron iniciadas el siglo pasado (por Charles Wheatstone, en 832), tomando postales turísticas o fotos pornográficas, con pares de vistas desfasadas, que se montaban en rudimentarios “estereoscopios”. Estos a partir de fotografías de ambientes reales o imágenes de modelos computacionales. Estas son montadas en un cilindro o esfera virtual, que al mostrarlas en una ventana de la pantalla se pueden girar como si se estuviese visualizando el entorno fotografiado. Combinando varias vistas panorámicas en una secuencia de recorridos o inclusive alrededor de objetos, se puede lograr una cierta experiencia de navegación inmersiva. Sin embargo no se maneja el detalle geométrico y además no se pueden programar comportamientos o configurar dispositivos, por lo cual constituye una técnica atractiva de presentación gráfica, pero sin mayores desarrollos virtuales.
Portes aseguraban que la distancia de los ojos del usuario fuera similar al ángulo de divergencia de las fotografías tomadas, de modo que percibiera una sola imagen con profundidad. Esta técnica se aplicó posteriormente en la aerofotogrametría para la confección de mapas geográficos y Disney lo incorporó. En el computador se han utilizado estas imágenes dobles para lograr visión estereoscópica, dividiendo la pantalla en dos partes y colocando una “capota” sobre el monitor con un soporte para la visión fija del usuario. Es una técnica económica y fácil de implementar, se incorpora un accesorio para la configuración de la pantalla y se define la visualización del modelo virtual con dos puntos de vista ligeramente separados. Sin embargo presenta problemas de formato y la posición rígida del usuario impide el manejo de otros dispositivos interactivos. Otra técnica popular son las imágenes de “puntitos”, creada por el matemático húngaro Bela Julesz en 1971 y difundida por las publicaciones “Ojo Mágico”. Esta consiste en presentar la imagen izquierda y derecha, superpuestas en pequeños fragmentos de colores, así el observador, forzando la visión, enfocada unos 40 cm. detrás de la figura, logra percibir en cada ojo la imagen correspondiente y reconstruir mentalmente la vista en profundidad..
Imagen estereoscópica de “puntitos”: Otro sistema estereoscópico conocido son las imágenes dobles con distintos tintes de color, denominados “anaglifos”. La vista izquierda y derecha se presentan sobrepuestas, cargadas al verde o rojo distintamente (u otro par de tonos). Al observarlas con lentes en que para cada ojo se coloca un cristal o plástico del color complementario, anula la vista inversa y reconoce exclusivamente la imagen del lado correspondiente. Logrando una buena percepción tridimensional n vistas monocromáticas, pero, naturalmente, se deteriora al aplicarla en imágenes coloreadas.
Como es una técnica barata y fácil de generar en los medios visuales (con dos cámaras simultáneas), se ha utilizado ocasionalmente en el cine y en programas de televisión. En estos eventos se les distribuye a los auditores gafas de cartón, pero no han tenido mucho éxito ya que el efecto de profundidad se diluye por las imágenes coloreadas, que además permiten la visualización de espectadores sin lentes. Actualmente se están utilizando gafas “polarizadas”, en que los cristales poseen pequeñas ranuras bifocales para discriminar las imágenes de distinto color, pero requieren un control más estricto, elementos un poco más caros y se aplica adecuadamente sólo en vistas o elemento monocromáticos.
Figura. 11 - Anaglifos.
Fuente: Cine 3D
Sensor : Un sensor es un dispositivo que detecta, o sensa manifestaciones de cualidades o fenómenos físicos, como la energía, velocidad, aceleración, amaño, cantidad, etc. Podemos decir también que es un dispositivo que aprovecha una de sus propiedades con l fin de adaptar la señal que mide para que la pueda interpretar otro elemento. Como por ejemplo el termómetro de mercurio que aprovecha la propiedad que posee el mercurio de dilatarse o contraerse por la acción de la temperatura. Muchos de los sensores son eléctricos o electrónicos, aunque existen otros tipos. Un sensor es un tipo de transductor que transforma la magnitud que se quiere medir, en otra, que facilita su medida. Pueden ser de indicación directa (e.g. un termómetro de mercurio) o pueden estar conectados a un indicador (posiblemente a través de un convertidor analógico a digital, un computador y un display) de modo que los valores sensados puedan ser leídos por un humano.
Los ambientes virtuales inmersivos son espacios tridimensionales, reales o imaginarios, generados por computadora, con los que el usuario puede interactuar y que le producen la sensación de estar dentro de un ambiente o lugar. La sensación de presencia se genera cuando se integran varios elementos, como son una rápida generación de varias imágenes de alta calidad por segundo, desplegadas en un área que cubra un amplio grado de campo de visión del usuario, y que resultan cuando el usuario interactúa al moverse o modificar el espacio y sonido espacial relacionado con el ambiente al que se da vida. Para que la interacción en estos ambientes sea de la forma mas natural posible, se recurre al uso de dispositivos especiales que nos permiten una manipulación natural con el ambiente, como pueden ser el uso de guantes, sistemas de rastreo de movimiento, o interfaces de entrada muy específicos, estrechamente vinculados con el ambiente en que se trabaja. Una de las vedntajas de poder utilizar ambientes virtuales inmersivos es accesar a espacios inaccesibles o con riesgo, y poder modificar los eventos que ahí ocurren. Por ejemplo: recorrer libremente ambientes arquitectónicos ya desaparecidos; diseñar edificios, casas , autos u otros objetos, teniendo una proyección en escala real y realizar modificaciones antes de pasar a la construcción real. Recrear ambientes para entrenamiento que serían muy costosos o no son posibles, por ejemplo, para el adiestramiento en casos de siniestros, en los ambientes virtuales se pueden generar diversas situaciones de riesgo y el usuario puede interactuar con respecto a el, permitiendo tener fallas, lo que en una simulación real podría ser peligroso o de alto costo.
Existen varios sistemas tridimensionales interactivos como son los creados con VRML (Virtual Reality Modeling Language), con alto grado de interactividad y fácil acceso desde páginas web. Estos mundos virtuales se les conoce como no inmersivos, ya que carecen de la sensación de presencia, la cual se logra con el uso de hardware especial de despliegue, dispositivos, audio espacial y la generación de espacios tridimensionales con escala 1 a 1 con el mundo real.
Las ventajas se producen al tener capacidades con las que no se cuentan en los sistemas no inmersivos. La libertad y amplitud de movimiento en la escena generada, las sensaciones que se producen con el sonido espacial y la retroalimentación táctil, los mayores detalles al visualizar y la escala a la que se proyectan los ambientes. Por ejemplo, en los casos de manufactura y arquitectura, el poder analizar los objetos en escala real, permite tomar decisiones, realizar y observar las modificaciones en el espacio del objeto. En aplicaciones como las de psicología o entrenamiento tener un despliegue que cubre la mayor parte de campo de visión del usuario, crea la sensación de estar dentro, generando mayor impacto en las sensaciones generadas, que son importantes en esta clase de aplicaciones. En el área de visualización de datos, el análisis de estructuras complejas se amplía cuano el usuario puede moverse entre los datos que está visualizando, lo que permite analizar y relacionar resultados desde otros puntos de vista.
Los ambientes virtuales inmersitos, dependiendo de la aplicación a la que estén dirigidas, requieren de alguno o varios de los siguientes elementos:
Cargadores de escenas 3D Éstos son componentes de software que permiten leer desde uno, o varios archivos, en diversos formatos la escena 3D o las partes que forman la escena 3D, como son: geometrías, imágenes, personajes, sonidos, etc.
Diversas formas de navegación Las formas de navegación son las opciones con las que el usuario cuenta para mover los objetos virtuales, inspeccionarlos o moverse a través de la escena. Algunas de estas formas de navegación son, por ejemplo: el moverse alrededor del objeto, ubicado en el centro de su visión, “volar libremente” en una escena 3D o simular que el usuario camina en la escena 3D.
Manejo de colisiones Dependiendo de las formas de navegación, se puede requerir atravesar cualquier objeto para la navegación libre o que se detectan las colisiones con los objetos para simular que el usuario camina por la escena 3D.
Animación de objetos Las escenas 3D pueden contener elementos no estáticos, como objetos animados desde dentro de la aplicación o animaciones creadas con algún software de animación.
Simulación de física Para incrementar el realismo en las escenas 3D es necesario implementar una simulación de física que permita a los objetos ser afectados por la gravedad, que haya fricción entre ellos, que puedan aplicarse fuerzas a mecanismos, etc.
Integración de personajes Se pueden agregar personajes a las escenas 3D, ya sea para tener un avatar que nos guíe a través del mundo virtual o para incrementar el realismo de la escena, al tener muchos personajes que pasean en ella.
Inteligencia Artificial Para la simulación de comportamientos complejos dentro de los ambientes virtuales, se requiere la implementación de algoritmos de inteligencia artificial. Por ejemplo: para determinar que metas requiere cumplir un usuario en una aplicación de entrenamiento o para simular el comportamiento de dos grupos de personas caminando en un cruce de dos calles de una ciudad.
Sonido espacial La escena puede contener sonidos que tienen posiciones específicas en el espacio 3D, de manera que el usuario que navegue en ella tenga la sensación auditvamente se que esta en un ambiente real.
Programación de despliegue en espacios envolventes El despliegue de la aplicación de realidad virtual inmersiva se puede realizar en cascos, caves (seis pantallas que forman un cubo dentro del cual está el usuario), pantallas curvas, etc; los cuales dan la sensación de que la escena 3D envuelve al usuario.
Integración de interfaces de interacción Para interactuar con las escenas 3D, existen diversos dispositivos que permiten manipular los objetos virtuales. Por ejemplo, guantes electrónicos para “tomar” moléculas virtuales o los complejos brazos electro-mecánicos (llamados dispositivos hápticos) para las simulación de cirugías.
Opciones de desarrollo comercial
Para la integración de los elementos mencionados anteriormente existe software comercial que permite desarrollar las aplicaciones por medio de programación visual, como son los paquetes de Virtools y Quest3D, entre varias opciones. Estas aplicaciones funcionan en plataformas Windows y excluyen plataformas como Linux e Irix. Además son herramientas de costo muy elevado por estar enfocados al mundo comercial.
Teleoperación: conjunto de tecnologías que comprenden la operación o gobierno adistancia de un dispositivo por un ser humano. Por tanto, teleoperar es la acción que realiza un ser humano de operar o gobernar a distancia un dispositivo; mientras que un sistema de teleoperación será aquel que permita teleoperar un dispositivo, que se denominará dispositivo teleoperado.
Telemanipulación: conjunto de tecnologías que comprenden la operación o gobierno a distancia por un ser humano de un manipulador. Por tanto, telemanipular es la acción que realiza un ser humano de operar o gobernar a distancia un manipulador, mientras que un sistema de telemanipulación será aquel que permita teleoperar un manipulador, que se denominará manipulador teleoperado.
Telerrobótica: conjunto de tecnologías que comprenden la monitorización y reprogramación a distancia de un robot por un ser humano. Se hablará entonces de la teleoperación de un robot, que se denominará telerrobot o robot teleoperado.
Telepresencia: situación o circunstancia que se da cuando un ser humano tiene la sensación de encontrarse físicamente en el lugar remoto. La telepresencia se consigue realimentando coherentemente al ser humano suficiente cantidad de información sobre el entorno remoto.
Desde los primeros desarrollos de la teleoperación, la industria nuclear ha sido el principal consumidor de sistemas de teleoperación. Sin embargo, con el paso de los años se fue viendo su aplicabilidad a otros sectores, especialmente relacionados con las industrias de servicio. Aquí se enumeran los campos de aplicación más significantes de la Teleoperación
Recientemente se ha fortalecido de forma importante la aplicación de las tecnologías de la teleoperación al sector médico [Dario, 02]. Desde los primeros desarrollos de prótesis o dispositivos de asistencia a discapacitados hasta la más novedosa de la tele cirugía, o el el diagnóstico, aunque éste no pertenezca estrictamente al sector de la tele operación. existe mucha literatura en este ámbito entre ellas encontramos un caso particular
que llama mucho la atención, la primer cirugía asistida por teleoperacion, el escenario es el siguiente; el sistema robótica usado es ZEUS18, la parte maestra, esto es del cirujano, estaba situada en la ciudad de NY, en Manhattan, mientras ue la parte del esclavo o del paciente estaba en Satrasburgo, Francia, la cirugía fue una colecistomía Laparoscópica, la operación Lindbergh (apellido del paciente) fue todo un éxito, las telecomunicaciones fueron concedidas por un canal privado de Internet, usando el protocolo UDP/IP, con un retardo promedio de 224 ms.
Figura 12. ZEUS, robot para realizar cirugía de tele presencia
Fuente : Operación realizada en NewYork Sistema Zeus
Las aplicaciones en el espacio tienen buenas razones para usar la teleoperacion como técnica de manipulación remota, algunas de estas razones son :
Seguridad; todas las operaciones espaciales son de alto riesgo, que pueden ser la causa de muerte para los astronautas.
Costo; el equipo necesario para los pasajeros humanos es mucho mas caro y pesado que un sistema de teleoperación.
Tiempo; hay muchas misiones que duran muchos años para lograr sus objetivos, que hace que estas misiones sean sin tripulación humana. Además este tipo de aplicaciones tienen el reto añadido de tener que trabajar con retardos temporales en las comunicaciones, lo que las hace especialmente problemáticas.
Entre sus principales aplicaciones están: experimentación y exploración planetaria (normalmente con vehículos tipo rover), mantenimiento y operación de satélites, construcción y mantenimiento de estaciones espaciales.
Son con mucho las más numerosas. La utilidad del sistema de teleoperación radica en poder tratar y manipular sustancias radiactivas, así como moverse por entornos contaminados, sin peligro para el ser humano. Entre sus principales aplicaciones están:
Manipulación y experimentos con sustancias radioactivas, operación y mantenimiento de instalaciones (reactores, tuberías, instalaciones de elaboración de combustible nuclear, etc.), desmantelamiento y descontaminación de instalaciones, y finalmente actuación en desastres nucleares.
Esta área provee muchas posibilidades para los sistemas teleoperados, la mayoría de las tecnologías de teleoperación móvil fueron desarrolladas para aplicaciones militares, las tecnologías aquí usadas van desde sistemas de monitorización remota hasta el uso de UAV (Unmanned Air Vehicles) Un ejemplo de este tipo de vehículos es el US Air Force Predator.
Figura 13. Terrobots
Fuente : US Air Force Predator
Este tipo de vehículos tienen un campo de aplicación muy grande, vigilancia, adquisición de objetivos militares, detección de enemigos, reconocimiento, entre otras, los primeros sistemas de este tipo tenían un lazo cerrado de control, el operador cerraba el lazo, hoy en día gracias a las nuevas tecnologías como el GPS (Global Positioning System) y el control supervisado los vehículos se vuelven cada vez mas inteligentes.
Otra área de vehículos de este tipo son los terrestres llamados UGV (Unmanned Ground Vehicle), dotados con tecnologías diferentes, como estereovisión así mismo los sistemas de comunicación son muy amplios y rápidos gracias al uso de radio frecuencias, Debido al incremento de criminalidad y terrorismo se han creado un cierto tipo de sistemas teleoperados llamados TERROBOTS, que son usados para asegurar bombas, vigilancia, asaltos policíacos entre otros, estos vehículos son teleroperados con un lazo de control cerrado desde una conexión por cable o por radio frecuencia, el equipo del que disponen generalmente son un sistema de visión, cámaras infrarrojas, manipuladores robóticos, armas letales y no letales.