Introduccion a la Realidad Virtual y la Telepresencia
Pagina Principal Mauricio Emilio Gomez Sanabria
Informacion de ultima hora para este curso
Bogota Colombia
PROGRAMA ANALÍTICO INGENIERIA
I. IDENTIFICACIÓN DE LA ASIGNATURA
NOMBRE DE LA ASIGNATURA: Introducción practica a la Realidad Virtual y la Telepresencia
DESCRIPCION: En Introducción practica a la Realidad Virtual y Telepresencia se abordan los temas relacionados con la captura de información de la realidad mediante hardware especifico para ser utilizada en mundos animados tridimensionalmente en tiempo real, o mas halla, para reproducir esta misma información nuevamente en la realidad generando telepresencia.
NUMERO DE CRÉDITOS: 3
INTENSIDAD HORARIA: 4 Horas
PRERREQUISITOS: Multimedia y Computacion Grafica
II. OBJETIVO GENERAL DE LA ASIGNATURA.
En este curso se prepara al estudiante en el desarrollo de aplicaciones que tomaran información del mundo real y se representara en un mundo virtual en tiempo real y/o se tomara información del mundo virtual para tener resultados en el mundo real. De igual forma se preparara al estudiante en las técnicas de selección y manipulación, técnicas de navegación, y teorías de interacción hombre maquina.
III. COMPETENCIAS RELACIONADAS CON LA ASIGNATURA
Ofrecer críticas constructivas sobre interfaces gráficas y de multimedia basadas en el entendimiento de los principios del diseño mediente las técnicas de selección, manipulacion, navegación, y búsqueda de rutas..
Aplicar los principios fundamentales para desarrollar sistemas gráficos 3D y de multimedia, donde adicionalmente se aplicaran conceptos de tipo algorítmico para la solución de problemas mediante aplicaciones graficas.
RELACIÓN DE NÚCLEOS TEMÁTICOS
NÚCLEO TEMÁTICO 01: Construcción de un sistema de captura de información analógica/digital.
Introducción al laboratorio
NÚCLEO TEMÁTICO 02: Introduccion a la Realidad Virtual y la Telepresencia, definición de reglas de la materia.
Practica de laboratorio
NÚCLEO TEMÁTICO 03: Dispositivos de entrada 3D comerciales
Practica de laboratorio
NÚCLEO TEMÁTICO 04: Sistemas Electromecánicos de Captura de Movimiento
Practica de laboratorio
NÚCLEO TEMÁTICO 05: Dispositivos de Salida para entornos de Realidad Virtual y Telepresencia (gráficos, sonido tridimensional y displays hápticos.)
NÚCLEO TEMÁTICO 06: Sistema de Detección de colisiones (Profundisación en OpenGL y en Doris Evolution - lua)
Practica de laboratorio
NÚCLEO TEMÁTICO 07: Selección y Manipulación
Practica de laboratorio
NÚCLEO TEMÁTICO 08: Navegación
Practica de laboratorio
NÚCLEO TEMÁTICO 09: WayFinding - Búsqueda de Rutas
Practica de laboratorio
NÚCLEO TEMÁTICO 10: Aplicaciones de Realidad Virtual y Telepresencia
Practica de laboratorio
NÚCLEO TEMÁTICO 1: Construcción de un sistema de captura de información analógica/digital.
OBJETIVOS ESPECIFICOS:
- Desarrollar junto con el estudiante toda la electrónica necesaria para la elaboración de un sistema de captura de movimiento funcional que sera aplicado a lo largo de la asginatura, particularmente en el desarrollo de un guante de Realidad Virtual
EJES TEMÁTICOS:
- Sistemas electronicos de conversión analógico a digital.
CONTENIDO ESPECIFICO:
Diseño del hardware
Nota del autor: Colocar aqui toda la explicación del hardware y software desarrollado para esta materia, queda pendiente.
NÚCLEO TEMÁTICO 2: Introduccion a la Realidad Virtual y la Telepresencia, definición de reglas de la materia.
OBJETIVOS ESPECIFICOS:
- Ubicar al estudiante en el estado del arte de la Realidad Virtual, la telepresencia y las oportunidades que se generan frente a estas nuevas tecnologías.
- Infundir en el estudiante los pilares fundamentales de la Realidad Virtual sus principios básicos de funcionamiento.
EJES TEMÁTICOS:
- Establecimiento de reglas para evaluación y normatividad del curso.
- Estado del arte de la Realidad Virtual
- Estado del arte de la telepresencia y algunos ejemplos.
- Descripcion del curso y planteamiento de metas para cada una de las calificaciones.
Animación tridimensional en tiempo real y diferenciación con otras técnicas.
Introduccion al curso http://www.geocities.com/ResearchTriangle/Station/6201/Temario.htm
NÚCLEO TEMÁTICO 3: Dispositivos de entrada 3D comerciales
OBJETIVOS ESPECIFICOS:
- El estudiante al final del tema estara en capacidad de identificar los diferentes dispositivos de entrada a mundos re Realidad Virtual y Realidad Aumentada, tomando la mejor desición de uso para la aplicación que vaya a desarrollar.
- De igual forma estara en capacidad de medir y dar indicadores de un Dispositivo de Entrada basado en Jitter, Acuracy, Drift, y Latency, tomando así la mejor decisión en un diseño final.
- Se conocerá cada uno de los dispositivos de tracker disponibles en el mercado, obteniendo la capacidad de escoger el mas indicado para una aplicación especifica.
- Entregar al estudiante las bases necesarias para identificar diversos sistemas de captura de movimiento
EJES TEMÁTICOS:
- Dispositivos de entrada a mundos de Realidad Virtual.
- Sistemas de captura de movimiento.
- Clasificación de estas técnicas de manipulación orientandolas a la Robótica y la Telepresencia..
CONTENIDO ESPECIFICO:
Dentro de los mas significativos dispositivos de entrada encontramos: (Tomado del libro Virtual Reality Technology, Second Edition - Grigore C. Burdea - Philippe Coiffet)
La realidad virtual se define como Interactividad. Para lograr hacer Realidad Virtual se necesitan dispositivos de interacción en 3D y proveer retornos de fuerza del entorno virtual al usuario. Hoy la realidad virtual es variada en funcionalidad y propósito. El objetivo de estas interfaces es hacer más amigable y natural la interfaz con el usuario.
Los Trackers de posicionamiento tridimensional funcionan como los sistemas globales de posicionamiento pero necesitan mucha más exactitud y se debe tener en cuenta en estos dispositivos las siguientes variables:
Rango
Precisión
Ratas de actualización (que tiendan al Tiempo real)
Algunos de estos tienen 6 grados de libertad para lograr posición y orientación. (tres para posición y tres para orientación)
El Computador utiliza estos datos para calcular una nueva dirección de la escena virtual y una actualización de render. Luego esta escena es convertida a señales de video NTSC en dos pantallas de cristal liquido del HMD.
Otra modalidad sensorial que usa la información del tracker es el sonido tridimensional, esto incrementa el realismo de la simulación y el usuario siente la inmersión en el mundo sintético. La reproducción de este sonido necesita menos exactitud del tracker que la parte visual. Los tracker se consiguen mecánicos, magnéticos, ópticos, ultrasónicos e híbridos.
Dentro de los parámetros característicos de los tracker podemos citar:
Accuracy: Precisión: Es la diferencia entre la posición real y la reportada por el tracker. Esta no se debe confundir con la resolución del sistema.
Jitter: Ruido: Cambios reportados en el tracker mientras el objeto se encuentra totalmente estático.
Drift: deriva: Error acumulado en el tiempo.
Latency: Es el tiempo de demora entre la acción y el resultado en tracker 3D es el tiempo entre el cambio en la posición y orientación del objeto y el tiempo que el sensor demora en detectar dichos cambios.
Largas inmersiones inducen malestar ,dolor de cabeza, nauseas y vértigo.
Típicamente la medición del tracker, comunicación, render y visualización son asincrónicos, cada uno opera a una velocidad diferente, una forma de minimizar dicha latencia es sincronizando todas las señales.
Si el mundo virtual necesita hacer render a una rata de 30 imágenes por segundo entonces cada frame necesita 33 milisegundos para ser dibujado. Con una línea de comunicación lenta a 9600 baudios esto tomara 12 milisegundos para transmitir 6 números, cada uno de 16 bits, ósea que la comunicación toma un 36% del tiempo disponible, sin embargo a 115kb se tomaría 1 milisegundo ósea un 3% del tiempo disponible. Otra forma de reducir la latencia es usar un tracker con una alta rata de actualización. Es importante tener un sistema electrónico por cada canal a digitalizar en cambio de un digitalizador que multiplexa entre todas las señales de entrada.
Trackers mecanicos
El primero fue un brazo mecánico para un HMD ‘ CRT Sutherland. Un tracker mecánico consiste en una serie de estructuras cinemáticas paralelas compuestas de enlaces interconectados usando junturas sensorizadas. La dimensión de cada unión es conocida de antemano y usada por la cinemática directa almacenada en el modelo computacional. Este modelo permite determinar la posición y orientación de toda la estructura. Una parte de este modelo debe estar anclado a un punto fijo como el techo o el piso. Los trackers mecánicos tienen ciertas ventajas cuando se comparan con otras tecnologías como por ejemplo el hecho de ser fácil de usar e implementar, es inmune a estructuras metálicas y campos electromagnéticos, Tiene un muy bajo ruido y baja latencia con respecto a otras tecnologías; no tiene problema de oclusión visual como en los tracker ópticos.
Un ejemplo de esta tecnología lo muestra la firma Gypsy el cual es un exoesqueleto sensorizado sobre licra con 15 junturas y 42 sensores potenciometricos, con una precisión de 0.08 grados por Angulo de giro, una distancia de 60 pies al computador para minimizar las perdidas resistivas, tarjeta de conversión análoga a digital multiple, rata de actualización de 30 dataset/sec, con estructura en aluminio y un peso alrededor de 7 kilogramos, tambien incluye microswitches de paso que detectan cuando los pies están sobre la superficie del piso y un giroscopio para orientación del cuerpo.
Como desventajas de este tipo de dispositivos se encuentra el sistema de brazo para deducir la posición del cuerpo completo la cual entre mas lejos se encuentre mayor posibilidad de oscilaciones e inercia se podrán encontrar, también se puede mencionar el alto grado de incomodidad para el movimiento, el peso el cual produce fatiga disminuyendo la sensación de inmersión.
Los Trackers magnéticos no son tan intrusivos, y consisten en sensores que utilizan el campo magnético producido por un transmisor estacionario para determinar la posición de un elemento receptor. El primero de estos fue de la firma polhemus de Isotrack integrado en un VPL dataglove, estos dispositivos tienen una latencia de 30milisegundos, ruido de 1 grado el cual resulta en un temblor de la mano virtual y otros efectos indeseados. Posteriormente se mejoro el sistema con el Fastrack el cual tiene 75 cm de alcance pero se puede triplicar con una antena. Pero ya que las estructuras del piso y de los techos tienen generalmente partes metálicas esto afecta considerablemente el sistema del tracker. El sistema Flock of birds funciona con campos eléctricos pero de DC con una rata de actualización de 144dataset/sec y se pueden conectar 30 receptores a un mismo transmisor. El rango es 1.2 metros extensible a 3metros con un ERT.
Los Trackers por ultrasonido son dispositivos de medición de posición que utiliza ultrasonido producido por un transmisor estacionario el cual determina en tiempo real el movimiento del receptor.
Tiene tres componentes, el emisor, el receptor y una unidad de circuitos electrónicos, y físicamente son dos triángulos, uno con tres receptores y otro con 3 emisores. Se debe tener en cuenta que la velocidad del sonido cambia según la temperatura del ambiente. El tracker de ultrasonido se basa en triangulación.
Un total de 9 distancias son medidas en orden para determinar la posición y orientación de un objeto en el espacio. Tiene una rata de actualización de 50dataset/sec, claro que si se incrementa el numero de receptores la rata puede bajar a 12 dataset/sec y el gran problema de este dispositivo es la latencia. Se maneja una distancia típica de 1.52metros pero se reduce significativamente por la humedad del aire. También se necesita línea de vista y se sabe que los equipos de seguridad o otros dispositivos que generen ultrasonido pueden generar ruido e interferencia.
Los Trackers ópticos requieren una línea de vista y son inmunes a los campos electromagnéticos y objetos metálicos. Con respecto a los ultrasonidos, mayor rata de actualización y menor latencia. Se pueden colocar emisores y receptores tanto en el objeto como en el ambiente dependiendo de la técnica que se quiera utilizar. Aunque los datos son recogidos en tiempo real, el procesamiento y la animación de personajes se hacen fuera de línea. Dentro de estos dispositivos se pueden mencionar SIMI Motion Capture 3D, LaserBird de Ascensión Technology, Hiball 3000 de 3rd tech entre otros.
También se pueden encontrar tracker híbridos los cuales miden la rata de cambio en la orientación de un objeto. Los tracker inerciales son estructuras de estado sólido que utilizan sistemas microelectromecánicos. La rata de cambio en orientación del objeto, o la velocidad angular es medida por un giroscopio tipo coriolis, tres de estos giroscopios son maquinas en ejes ortogonales mutuos midiendo el Yaw, el Pitch y el Roll. Los tracker inerciales miden la rata de cambio en velocidad de translación o aceleración utilizando acelerómetros de estado sólido. Tres maquinas acelerometros coaxiales con tres giroscopios son necesarios para medir las aceleraciones del cuerpo.
Interfaces de navegación y manipulación
La mayoria de estos dispositivos son totalmente programables, con multiples botones y sensores con el fin de controlar, navegar, y manipular dentro de los mundos virtuales.
Son dispositivos que permiten el cambio interactivo del ambiente virtual y la exploración a través de la selección y manipulación de un objeto virtual de interés. Ejemplos de estos dispositivos son el 3dMouse y 3DBall.
También encontramos los Trackballs como el logitech Magallan el cual mide 3 fuerzas y 3 torques y estos son medidos para poder mover objetos o ambientes virtuales. Los probadores o manipuladores tridimensionales son brazos mecánicos que funcionan en base a sensores de posición en cada una de las articulaciones que los conforman, son intuitivos de utilizar, y toman un absoluto o relativo control de la animación. Estos también se prestan para digitalizar objetos en 3D como el microescribe3D el cual es un brazo sensorizado de 3 grados de libertad con un sistema de contrapeso el cual equilibra la carga mecánica y lo hace mas útil al evitar la fatiga con su uso prolongado. Este dispositivo en particular biene equipado con un pedal con el cual se puede seleccionar o deseleccionar objetos del mundo virtual, navegar o marcar puntos a digitalizar dependiendo de la aplicación que se este utilizando o se este programando.
Probablemente el dispositivo más omnipresente para el control y entrada en un sistema virtual es un guante instrumentado con fibras ópticas flexibles que recorren cada una de las articulaciones de la mano. Estos cambios de sentido en la posición y el movimiento de la mano los basa en la computadora. Los guantes son dispositivos separados que pueden ser acoplados a cualquier sistema de computadora y las aplicaciones más recientes, desde videojuegos hasta proyectos multimillonarios de investigación militar, usaban guantes que eran desarrollados y vendidos por un solo vendedor. Cuando éstos tendieron a mostrar una pobre ejecución después de pocos meses, otros vendedores se incorporaron con versiones más trabajadas y ahora el comprador tiene muchas opciones.
A primera vista, el guante parece un guante de esquiar con cables; pero otros tipos elásticos menos incómodos están siendo desarrollados, quizás espoleados por la incapacidad de los programadores para teclear con las versiones voluminosas. Entre los modelos más modernos están los guantes sin dedos que permiten al usuario manipular las cosas en el entorno real (como el teclado) mientras están conectados al entorno virtual.
Los guantes sin dedos son también más cómodos porque las áreas de los dedos y las palmas están expuestas al aire y ventiladas. La mayoría de los guantes vienen en tallas pequeña, mediana y grande y en versiones para la mano derecha y la mano izquierda.
Actualmente, estas conexiones de los guantes son diseñadas para medir la flexión y la extensión de la mayoría de las articulaciones de la mano. Algunos pueden ser reducidos a medir la abducción y las articulaciones menores. Los pliegues de los dedos, la rotación del pulgar o el meñique, y el balanceo de la muñeca o la curvatura de la palma son convertidos mediante sensores eléctricos a una forma que pueda leer la computadora. Algunas versiones están adaptadas para convertir el deletreo mediante los dedos o el Lenguaje Internacional de Signos en habla sintetizada.
Los finos cables de fibra óptica que recorren los dedos son seccionados de acuerdo con las articulaciones de la mano. Cada sección se sale un poco de su articulación y está dotada de un diodo emisor de luz (LED). La cantidad de luz que se detecta pasando a través de la fibra es proporcional al grado en que la articulación correspondiente sea doblada. Esta información es enviada al sistema, que determina qué dedo está siendo doblado, cuánto, etc.
También incorporado al guante, hay un mecanismo de rastreo, que usa la detección magnética para determinar las coordenadas espaciales de la posición y orientación de la mano, bien en relación a la escena total, por ejemplo, o bien en relación al cuerpo imaginario. Los dos sistemas separados dan fé de esos datos a la computadora.
La información de la curvatura es enviada por cable de fibra óptica, y la información de la posición y de la orientación es enviada eléctricamente. Los sistemas de dos manos son posibles; en este caso, cada mano es un sistema independiente que requiere una unidad de control separada y un canal independiente de la computadora.
Mientras la información combinada de la posición y la curvatura es recibida por la computadora, el programa genera y mantiene una versión animada de una mano de movimientos similares (normalmente flotando) dentro del entorno virtual. Los movimientos del dedo y sus articulaciones se corresponden con aquellos del usuario que lleva el guante. Las coordenadas de la mano son determinadas por movimientos del usuario relativos al entorno virtual percibido.
Si se agitan los dedos, los dedos animados también se agitan. Si se eleva una mano, la mano presentada parece moverse con el entorno virtual. Es a través de esta mano animada que el usuario es proyectado en el entorno virtual y trabaja dentro de él.
Al introducir al sistema un lenguaje de signos, los movimientos particulares del usuario (como apuntar) o los conjuntos de movimientos combinados (como algunos gestos) sirven para dar mandatos al programa. El programa interpreta éstos y genera imágenes que satisfacen estos signos. Por ejemplo, los dedos cerrados en el puño, al ser elevados en la dirección de un objeto, podrían representar una orden para dar un golpe de zoom en el objeto. Este sistema generará entonces una secuencia de imágenes que da a la persona la sensación de acercamiento al objeto. Las órdenes específicas no han sido todavía estandarizadas en la comunidad de la RV, pero algunas señales de la mano están emergiendo como estándares de facto.
Los guantes son utilizados primordialmente para transmitir al sistema señales en una dirección; en cualquier caso, algunos están adaptados también para transmitir señales en la otra dirección del sistema al usuario para incrementar la credibilidad del entorno virtual. Esta realimentación puede incluir sensaciones táctiles como presión, calor o textura, para elevar lo que el usuario experimenta. Para una realimentación táctil, los objetos reales son abarcados con un guante de desarrollo. Una muestra de fuerzas es medida y almacenada y es evocada más adelante para producir el mismo efecto en el guante del usuario.
De los 20 o más sensores que puede contener un guante, no todos necesitan ser activos. Quien use el sistema puede elegir utilizar sólo aquellos basados en información relevante para su trabajo particular; conservando por tanto recursos del sistema. También, dependiendo de la naturaleza de la realimentación requerida, los datos pueden ser tomados en intervalos, en lugar de continuamente.
La mayoría de los guantes requieren una graduación separada o específica para cada usuario y el rastreador electromagnético puede tener que ser ajustado a las peculiaridades magnéticas de una habitación. Aunque la información para cada usuario puede ser almacenada en la computadora para un uso futuro, extraerla y reinsertarla cada vez puede suponer una incomodidad.
Hay otra desventaja en el uso de los guantes. Los guantes con articulaciones sensorizadas altamente instrumentados creados para aplicaciones de investigación permiten tanta libertad de movimiento y tantas combinaciones de movimientos que probablemente son excesivos para muchos programas. En estos casos, otros tipos de dispositivos de entrada son utilizados. Son tratados en distintas secciones.
Las aplicaciones apropiadas de entrada por guante incluyen:
- Entornos de diseño CAD/CAM, de tal forma que el usuario pueda coger objetos en la pantalla
- Entrenamiento biomédico y colaboración cuando, por ejemplo, los enfermeros necesitan asesoramiento sobre la función y ejecución de las manos;
- Robótica, para que los gestos puedan ser utilizados para dirigir a un robot;
- Telemanipulación, en la que las acciones de manipulado y prensión de un robot puedan ser ejecutadas en tiempo real;
- Animación, para la cual un guante u otros sensores puedan ser transformados en caracteres generados por la computadora y controlar sus acciones;
- Investigación y enseñanza en el reconocimiento del lenguaje de signos y letras impresas;
- Simulación, en la que las señales del guante puedan ser incorporadas para controlar la información.
Generalmente, un guante permite al usuario trabajar con objetos virtuales de la misma manera que trabajaría con objetos reales, alcanzándolos, tocándolos, cogiéndolos o, de otra forma, manipulándolos por medio de la mano animada. Un usuario puede seleccionar objetos y actuar en o con ellos de una forma muy natural, sin tener que recurrir a teclear en la computadora o a una interacción esotérica y formal con la computadora.
Una versión muy simple de estos guantes llamados guantes de potencia (PowerGlove) está en el mercado para ser usada en los videojuegos domésticos y fue el sexto más vendido en la compra de juguetes en las Navidades de 1997. Ya han reemplazado dispositivos manuales de entrada o joysticks en alrededor de un millón de usuarios.
Muy representativos de los guantes más avanzados son los guantes provistos de resistencias sensibles a la fuerza en sus superficies internas. Cuando los objetos reales son tomados, una muestra distinta de fuerzas es generada en la mano de una persona. Una muestra de la presión proporcional de estas fuerzas puede ser medida y almacenada como parte de la base de datos del entorno o en una base de datos creada específicamente con este propósito. Cuando la acción forma parte de un escenario virtual, mediante la señal del usuario al cerrar los dedos sobre algo, por ejemplo, la mayoría de los usuarios experimentan una sensación reconocible, presión en las mismas posiciones que si cogieran un objeto real con una mano real.
Complementar aqui Sistema de captura de Movimiento por Accelerometers and gyroscopes:
http://www.youtube.com/watch?v=IJ4tndpwL-o
NÚCLEO TEMÁTICO 4: Sistemas Electromecánicos de Captura de Movimiento
OBJETIVOS ESPECIFICOS:
- Ejercicio completo de creación de un exoesqueleto electromecanico de captura de movimiento, para aplicaciones en Realidad Virtual y Robótica.
EJES TEMÁTICOS:
- Cinemática de Sistemas de captura de movimiento electromecánicos, Mano y Brazo.
- Partes necesarias para la elaboración de un sistema de captura de movimiento electromecanico.
CONTENIDO ESPECIFICO:
Creación de un exoesqueleto electromecanico
3.3. CAPTURA DE MOVIMIENTO MEDIANTE CAMARAS DE VIDEO.
Otras empresas dedicadas a la captura de movimientos como es http://www.vicon.com/applications/animation.html o Motion Analysis [4] lo hacen por intermedio de cámaras de vídeo. Esta ultima empresa aunque utiliza sistemas de captura de movimiento no se limita a animaciones de avatar’s sino que además ofrecen servicios de análisis de movimientos para múltiples aplicaciones entre las que se encuentra el estudio de movimientos humanos para el desarrollo de la robótica.
Luego de ver distintos modos de captura de movimiento podemos concluir lo siguiente:
Características Sistema Mecánico Sistema Magnético Sistema por Video
Interferencia eléctrica y metálica No Si No
Rango 1.2KM 6 metros 6 metros
Requiere ambientes altamente controlados No Si Si
Ruido a la salida No Si No
Dificultad para usar Poca Poca Alto
Problemas con múltiples
sistemas funcionando simultáneamente No Si Si
Dificultad para calibrar No Si No
Precio Normal Normal Alto
Lo anterior fuera de muchas otras características nos llevo a desarrollar el exoesqueleto electromecánico.
4. DESARROLLO DEL EXOESQUELETO ELECTROMECANICO
Inicialmente se desarrollo un pequeño brazo con la misma tecnología con la que se construiría el exoesqueleto con el fin de explorar de viabilidad de montar un exoesqueleto completo. Este pequeño brazo finalmente se convirtió en un practico manipulador para aplicaciones en tiempo real. Las caracteristicas de este brazo manipulador son:
- Estructura en aluminio.
- Transductores de posición: Potenciometros.lineales.
- Hardware: Basado en el chip integrado MCP 3008.
La estructura se decidió hacer en aluminio ya que este es un metal blando y liviano. La ventaja de trabajar en un metal blando es su facilidad para maquinar. En cuanto al hecho de que es liviano le permite al usuario utilizarlo fácilmente sin mayor esfuerzo.
También se decidió utilizar como sensor de posición potenciometros lineales de 270 grados los cuales por una posición determinada entregan un voltaje el cual a través de conversores análogo / digital se puede convertir en un número equivalente al ángulo en el que se encuentra ubicada la articulación medida en un momento determinado.
Luego se elaboro un prototipo de exoesqueleto electromecánico del cual se mejoraron algunas partes de los sistemas que se ofrecen actualmente.
El Excelente sistema de la firma METAMOTION Gypsy's se tomo como modelo, y una vez reproducido se descubrieron algunos puntos que se pueden mejorar en este modelo. El principal radica en la forma en que se esta censando la articulación del hombro.
Viendo gráficas detalladas del Gypsy analice el intentar subir el brazo hacia el lado y luego mandarlo hacia delante y descubrirá que este movimiento tan básico no se puede realizar Esto es el conocido problema de Yimbal Look.
Como se observa en la gráfica para censar este movimiento utilizan 2 o 3 potenciometros encontrados en un solo punto (depende de la articulación que se quiera digitalizar). Esto es una representación mecánica del manejo de los ángulos con las técnicas de Euler. La solución para esto se puede contemplar desde dos puntos distintos. La primera es desplazarse por la superficie de una esfera lo cual fácilmente se puede hacer imitando la tecnología que utilizan los "mouse" de escritorio, de manera que matemáticamente se estaría trabajando con Quaterniones. La otra solución (la cual fue implementada) es mediante la descomposición del movimiento a tres sensores desplazados a lo largo del hombro según se muestra en la gráfica.
Como se puede apreciar se tiene descompuesto el movimiento en tres sensores distribuidos a lo largo del hombro lo cual evita el problema de Yimbal Lok y de bloqueo mecánico en el movimiento.
El primer sensor se encarga de medir el giro del hombro, el segundo sensa cuando se levanta el brazo de lado y el tercero el movimiento hacia delante y hacia atrás muy común cuando se camina.
Dentro del diseño con descomposicion de la articulacion tambien se hace evidente la necesidad de utilizar telescopicos al igual que en el modelo del Gypsy. Sin embargo ya que el Exoesqueleto se desarrollo para aplicaciones de Realidad Virtual y Captura de movimiento para 3D Studio Max, se puede simplificar este problema permitiendo que el codo se doble un poco y sacrificando a consecuencia la exactatud del movimiento capturado.
En el codo solo es necesario un sensor puesto que este movimiento se hace en dos dimensiones. Para la muñeca se toma como referencia el modelo ya desarrollado por el [2] METAMOTION Gypsy's ya que en las pruebas demostró gran eficiencia. En la grafica se puede apreciar que el movimiento se adquiere por medio de tres sensores tipo potenciometro.
En cuanto a la detección de Posición o Orientación se puede utilizar el producto FASTRAK de la firma POLHEMUS [7] el cual es descrito con mayor detalle en la pagina:
http://www.polhemus.com/fastrak.htm
Para la interfase entre el traje y el computador se utilizo un sistema de conversión Análogo / Digital el cual convierte simultáneamente 40 canales análogos a digital cada uno con una resolución de 10 bits equivalente a 1024 niveles de digitalización por canal. Ya que la alimentación del sistema es de 2.5 voltios se puede decir que se tiene una resolución de 0.0024 voltios por escalon. El sistema transmite la información de modo serial de modo que por el puerto paralelo se pueden tener 5 chips funcionando simultáneamente que es lo mismo a tener un conversor de 40 canales Análogo / Digital con 8 canales de conversión simultáneos. El chip es el MCP3008 del cual se puede conseguir mas información en la pagina http://www.microchip.com/stellent/idcplg?IdcService=SS_GET_PAGE&nodeId=64
Mecánicamente toda la estructura se armo en aluminio para hacerlo mas liviano y los sensores de posición que se utilizaron fueron potenciómetros lineales iguales a los utilizados en la primera fase del proyecto con el primer prototipo del manipulador.
5. PRUEBAS Y EVALUACIÓN DE RESULTADOS
El sistema tal como se construyo tiene limitaciones en cuanto a la forma como se sensa la muñeca.
Como se puede apreciar en la gráfica a la muñeca solo se le esta sensando un grado de libertad lo cual restringe bastante la cantidad de movimientos naturales que se hacen normalmente y esto para captura de movimiento natural resulta muy incomodo. Por otro lado en cuanto a la utilidad de este brazo en entornos virtuales no presenta mayor problema ya que lo mas importante es tomar un objeto y moverlo de un lugar a otro para lo cual con un grado de libertad en la muñeca es mas que suficiente.
En cuanto a la calibración y puesta en funcionamiento del sistema se utilizo el siguiente protocolo de calibración, para los cuales se asume que el brazo del exoesqueleto lo tiene permanentemente colocado la persona que lo utilizara. (Para efectos prácticos, el brazo se calibro únicamente para un persona lo cual simplifica la elaboración de la parte mecánica en cuanto al largo de cada uno de sus componentes). También se asume que solo esta funcionando el brazo derecho.
5.1. Calibración del primer sensor:
Máximo de primer sensor: Dejar el brazo completamente derecho y hacia abajo. Mover el codo hacia arriba 90 grados y girarlo a tocar con la mano el lado izquierdo del estomago.
Mínimo de primer sensor: de la posición anterior girar hacia afuera el brazo hasta donde sea posible. Mediante estas dos medidas sumar la variable a la medida entregada por el sensor hasta hacer coincidir la animacion con el brazo real.
5.2. Calibración del segundo sensor:
Mínimo del segundo sensor: Colocar el brazo completamente derecho y en reposo hacia abajo en la posición uno.
Máximo del segundo sensor: Subir el brazo hacia el lado hasta llegar a la posición 2 de la gráfica.
5.3. Calibración del tercer sensor:
Para obtener los maximos y minimos movimientos de este sensor se debe hacer el mismo movimiento que se hace al andar pero de una manera un poco mas marcada.
5.4. Calibración sensor de codo
Para el codo el punto mínimo es el mismo que se obtiene con el brazo completamente estirado hacia abajo y el punto máximo es el que se obtiene flexionado el codo hacia arriba.
En cuanto al máximo y mínimo de la muñeca se coloca ésta en sus posiciones extremas hacia arriba y hacia abajo.
5.5. Calibración de los sensores de dedos:
Para los dedos se llega el mismo procedimiento, movimiento en lo que el exoesqueleto permite (un grado de libertad por cada dedo) al dedo hacia arriba y hacia abajo.
En cuanto a los parámetros de velocidad, latencia y precisión se puede decir que este exoesqueleto depende directamente del conversor análogo / digital MCP 3008 el cual permite 200 mil muestras por segundos utilizando una alimentación de 5V con una resolución a este voltaje de 0.0048 voltios por escalon.y 75 mil muestras por segundo a 2.7 voltios con una resolución de 0.0026 voltios por escalon. Ya que el circuito integrado automáticamente cambia de canal de muestreo, se puede decir que no existe latencia en la medición.
En cuanto al costo se estima que para este prototipo se invirtieron alrededor de 7’000.000 de pesos incluyendo la herramienta que se utilizo en su elaboración no superando los 350.000 pesos el costo en si de materiales utilizados entre componentes electrónicos y mecánicos.
Finalmente se escogieron potenciometros como sensores de posición ya que la alternativa era sensores ópticos los cuales son supremamente costosos y grandes, lo cual para la aplicación no resulta la mejor alternativa.
Referencias:
[1] EXO-ESQUELETO. http://www.mecad.org/afasia/exoesqueleto.html
[2] METAMOTION Gypsy's http://www.metamotion.com/ Exoesqueletos comerciales
[3] Peak Performance Technologies http://www.peakperform.com/anim_prods.htm
[4] Motion Analysis
http://www.motionanalysis.com/applications/movement/gait/gallery.html
[5] Magnetic Motion Capture Systems
http://www.cs.umd.edu/users/thanarat/Research/mocap.html
[6] Ascensión Technology Corporation
http://www.ascension-tech.com
[7] Polhemus a rockwell collins company
http://www.polhemus.com/home.htm
SPACEMOUSE JOYSTICK.
Dispositivo proporcional de movimiento de alta precision. Cuenta con seis grados de libertad, que dan al usuario completa movilidad y sensacion de vuelo dentro del espacio virtual.
El Dispositivo recoge en un pequeno teclado funciones susceptibles de configuracion, que permiten disenar formas simples de interaccion con los mundos virtuales.
NÚCLEO TEMÁTICO 5: Dispositivos de Salida para entornos de Realidad Virtual y Telepresencia (gráficos, sonido tridimensional y displays hápticos.)
OBJETIVOS ESPECIFICOS:
- Mostrar las diferentes técnicas de Realimentación de los mundos de Realidad Virtual hacia el mundo real.
- Especificar los distintos sistemas realimentación de fuerza desarrollados hasta la fecha.
EJES TEMÁTICOS:
- Dispositivos Hápticos.
- El sistema visual humano y los HMDs (Dispositivos Montados sobre cabeza).
- Introducción al manejo de Reles, Transistores, y motores para sistemas Hápticos y Roboticos.
CONTENIDO ESPECIFICO:
Dispositivos de salida:
Combinando varios sistemas de salida y retro alimentación se aumenta el realismo de la simulación.
Displays Gráficos: Es una interface computarizada que presenta imágenes de un mundo sintético a uno o varios usuarios interactuando con el mundo virtual. Los hay estereoscópicos o monoscópicos, y se debe tener en cuenta la resolución, el campo de vista, la tecnología del display, si es CRT o LCD, la ergonomía y el costo.
El sistema visual humano:
El ojo tiene mas de 126 millones de photoreceptores distribuidos en la retina. El área central de la retina es llamada fovea, aquí esta el área de alta resolución de color. El resto es de baja resolución. En la Fovea se encuentra el área de foco; Ya que los sistemas gráficos regularmente no saben cual es la dirección en que ve el ojo, estos sistemas deben hacer todo el render en alta resolución.
El campo de vista de ojo humano regularmente es de 150 Grados Horizontal y 120 grados verticalmente y cuando ambos ojos son utilizados se alcanza un campo de vista de 180 grados. La porción central de este volumen representa el área de estereosis donde ambos ojos registran la misma imagen. Esta zona de intersección es aproximadamente 120 grados horizontalmente. El cerebro utiliza esta información para calcular la profundidad a la que se encuentra el objeto presentado en la escena.
Nota: La distancia entre los ojos es llamada distancia interpupilar y varia entre hombres y mujeres en un rango de 53 a 73 mm. Lo cual es llamado IPD, esta IPD es la línea base para que una persona interprete distancias en el mundo real.
Cuando se esta viendo un objeto real la imagen del ojo derecho y la imagen del ojo izquierdo es diferente. Este cambio es llamado imagen parallax y si se quiere construir dispositivos que generen imágenes 3D en estereo este efecto debe estar bien logrado.
Displays graficos personales:
http://www.3dil.com/es/soluciones/CatPantallas3DMono.htm pagina donde se comercializan pantallas 3D.
Son utilizados por una sola persona, pueden ser estereoscopicos o monoscopicos, monoculares o binoculares.
HMD: Este proyecta imágenes 3D de 1 a 5 metros de profundidad frente al usuario. Consta de 2 pequeños paneles gráficos con un bajo FOV, y según el precio y la tecnología también cambia la resolución. En estos cada pixel corresponde a un numero determinado de minutos de arco, entre mejor sea el dispositivo cada pixel debe corresponder a un número pequeño de minutos de arco. Antiguamente colocaban un lente que hacia ver borrosa la imagen con el fin de ocultar la pixelización. Aunque la resolución a mejorado considerablemente aun no es suficiente.
Otra característica es la tecnología empleada, ya que algunos utilizan CRT y otros LCD. Los mas costosos utilizan CRT ya que tienen una mejor resolución. Inicialmente los consumidores lo utilizaban pora ver televisión en privado, para juegos video. Con la entrada de VR estos displays tuvieron que ser compatibles con los sistemas RGB, NTSC y PAL.
Para comprar un modelo en el mercado no solamente se deben tener en cuenta la resolución, y campo de vista sino también el peso y el confort entre otros.
El primer sistema de LCD estuvo disponible en 1990 con resolución de 360 x 240 pixeles y un FOV de 100 grados Horizontal y 60 grados vertical, con un peso de 24 Kg. Este peso induce rápidamente a la fatiga. Actualmente el Olympus Eye- Track pesa 100 gramos, y es llamado FMD Face Mounted Display, tiene una matriz activa de cristal liquido o AMLCD con paneles excéntricos directamente sobre la óptica. Tienen un campo de vista de 30 grados horizontalmente y 27.7 grados verticalmente. Puede generar imágenes virtuales a mas de 1.3 metros con un foco de 2 metros hacia el frente. Es también importante que el costo es muy bajo comparado con otros dispositivos gráficos.
El modelo FMD2000 es inalámbrico y da mas de 100 metros trabajando en una frecuencia de 2.4Ghz, aunque puede haber interferencia ya que esta frecuencia se utiliza en otras aplicaciones. Tiene una resolución de 267x225 y valor aproximado a los $500 dólares.
Una vez salió este dispositivo al mercado se percataron que la resolución era demasiado baja por lo que sacaron el modelo FMD que tiene una resolución de 533x450
El DH4400VP usa LCOS, Liquid Crystal on Silicon, y necesita iluminación adicional ya que este no es un material activo, pero la resolución aumenta a 800x600 con un campo visual de 60 grados horizontalmente por 45 Grados verticalmente con un peso de 160 gramos.
También se encuentra el modelo proview XL35 de AMLCD con 28 grados Horizontal y 21Grados en vertical estéreo y un 100% de overlap. Resolución de 1024 x 768 X 3 con un IPD entre 55 y 75 mm con un costo de $19500 dolares y un peso de 992 gramos.
El Datavisor El R,G,y B es transmitido secuencialmente por lo que necesita el triple de la rata de actualización. Tiene una resolución de 1280x1024 y un alto consumo de energía, con 78 grados horizontales y 39 grados verticales de campo de vista. Pesa 1587 gramos y tiene un valor de $35.000 dólares. Por la tecnología que utiliza tiene una alta radiación electromagnética.
Hand Supported Displays:
Otra modalidad de visualizadores 3D son aquellos que tienen la forma de una binoculares normales y se cogen de la misma manera, y además incluyen botones para interactuar con el mundo virtual. Un dispositivo de estos como el Virtual Binoculars SX tiene una resolución de 1280x1024 en dos displays, lo cual significa baja granularidad con 1.6 arc-minutos por pixel. También tiene un tracker para posición y pesa 1 kilogramo. El costo de este instrumento es de $19.900
Floor Supported Displays.
Es otro tipo de dispositivos similares a los anteriores con la diferencia que están apoyados sobre un brazo mecánico articulado. Este es un concepto desarrollado por la NASA para CCSU counterbalanced CRT based stereoscopic viewer. Con la cinemática del brazo se puede obtener la posición y orientación. Este sistema en particular utiliza como transductores de posición encoders con una resolución de 0.1 grados. Cabe recordar que lo mejor de los trackers mecánicos es su baja latencia.
La desventaja de este sistema es no poder moverse con soltura ya que todo gira en torno a un punto fijo. Es un cilindro de 1.8 metros de altura excluyendo el núcleo que la base de la estructura. De esta misma línea tecnológica se puede mencionar el Window VR de I Virtual Research Systems con un LCD de 1600x1200 mas botones mas 3D tracker mas palancas para cada mano. La ventaja con respecto al sistema anterior es que no esta conectado a un centro y el mas económico.
Desk Supported Displays.
Son sistemas que se conectan frente al monitor del computador de escritorio logrando convertir en un sistema de proyección de imágenes tridimensionales. La idea en general es generar mediante una estructura un sistema que genere una imagen para el ojo derecho y otra para el ojo izquierdo. Aunque son muy cómodos de utilizar reducen el movimiento completamente ya que atan al usuario a un punto fijo frente a la pantalla. Ejemplos de esta tecnología son el DTI 2018XL con una resolución de 1280 x 1024. Pesa 11.25 Kilos pero esto no es problema ya que el peso es soportado por el escritorio. Un curioso ejemplo de esta tecnología es el Ecomo4D de 18.1 pulgadas de diámetro con una resolución de 1280 x 1024 el cual es mecánico. Funciona con un motor de paso el cual hace girar unas rejillas que permiten al usuario tener una imagen para cada uno de los ojos.
Large Volumen Display.
Cuando se quiere hacer ingresar a un grupo de personas en un ambiente virtual debemos pensar en este tipo de dispositivos. Dependiendo del tipo y el tamaño del display se pueden clasificar en basados en monitores CRT y basados en proyectores (Workbenches, Caves, Displays depared y domos). Los displays de gran volumen son muy similares a las gafas que se encuentran en el laboratorio de la Universidad de los Andes. Son gafas de conmutación con sensor de infrarrojo que detectan el refresco de la pantalla y se envían las imágenes estereoscopicas alternadas al monitor. Las gafas se encargan de oscurecer el ojo respectivo según va avanzando la secuencia de imágenes.
Proyector Base Displays
CRT proyector utilizan 3 tubos R,G y B con 1280 x 1024 pixeles a 120Hz aunque se pierde un poco de brillo y luminancia.
Existen múltiples sistemas basados en CRT y otros en dispositivos microespejos digitales DMD donde un proyectos digital utiliza 3 de estos DMD.
Otros proyectores como el WorkBech inmersivo trabaja en base a un proyector de CRT que se refleja en unos espejos y pasa a través de una pantalla de difusión.
Otros son los llamados Caves los cuales son un cubo con imágenes proyectadas en todas sus caras por medio de proyectores de alta resolución. Estos caves permiten 12 usuario simultáneamente.
Comercialmente se consigue el WorkRoom de 4mx10.7mx7.6m y el Smaller ReActor de 3mx2.9mx2.8m el cual se compone de varios cuartos similares y es denominado un RAVE el cual puede costar $500.000 sin incluir las múltiples estaciones de trabajo que se necesitan, mientras que un CAVE puede costar $300.000 aunque se sabe que en Austria lograron construir uno en base a sistemas linux y tarjetas NVIDIA a un costo de $100.000 con sus respectivas perdidas de rendimiento.
También encontramos Las proyecciones en Paredes como el PanoWall de 7.32mx2.44m de tres proyectores, el WorkWall. Y en domos como el V-Dome que utiliza 7 proyectores de 1280x1024, 5 de los cuales son perimetrales y 2 se encuentran en la parte superior del sistema alcanzado un área de 639m2. El precio de este sistema es de 2 millones de dólares pero ni mencionar los domos de aplicaciones aeronáuticas militares que pueden utilizar hasta 20 proyectores para incrementar el nivel de realidad. Y finalmente se encuentran unas curiosas gafas polarizadas con un lente azul y el otro rojo la cuales conocemos desde niños y pueden costar $1 dólar.
Dispositivos de Sonido:
Son interfaces computarizadas que proveen sonidos sintéticos cuando el usuario interactua con el mundo virtual. El sonido puede ser monoaural (ambos oídos escuchan lo mismo) o binaural (cada oído escucha diferente sonido). Si se coloca una pelota a rebotar en un ambiente virtual y se escucha con sonido 3D se incrementa el nivel de realismo considerablemente.
Para el sonido normalmente se trabaja con coordenadas polares. El cerebro estima la localización de la fuente (azimuth, elevación y rango) basado en intensidad, frecuencia y señales temporales presentes en el sonido por oído izquierdo y derecho.
Hay variables que utiliza el cerebro para estimar el azimuth; El ITD: Interaural time difference: Diferencia en el tiempo de llegada del sonido en los dos oídos y IID, interaural intensity difference.
Un sistema de ejemplo es el Huron 20 el cual puede costar $40.000 lo cual lo hace demasiado costoso, aunque en recientes años han aparecido tarjetas de sonido económicas que utilizan chips DSP con procesador estereo en formato 5.1 que logran un muy efecto 3D.
Retorno Haptico (tactil)
Estos dispositivos de retorno de toque llevan información en tiempo real de contacto con la superficie del objeto virtual, entregando rugosidad, forma, temperatura y demás datos como la textura del objeto. Por otro lado los retornos de fuerza proveen información en tiempo real del objeto virtual como peso e inercia.
Dentro de los dispositivos de retroalimentación táctil encontramos el iFeel Mouse que contiene un pequeño vibrador con el cual se puede interactuar táctilmente con las aplicaciones. Pero esto no deja de ser un ratón con sus ventajas y desventajas. Algo realmente interesante es el CyberTouch Glove que es un guante de realidad virtual que no solamente captura el movimiento sino que reproduce sensaciones táctiles vibrotactiles en un rango de 0 a 125Hz. Cada actuador puede generar una pequeña fuerza de 1.2N. De esta misma naturaleza también existe un guante que ofrece realimentaciones de temperatura.
Dentro de los sistemas de retro alimentación de fuerza podemos mencionar el WingMan Force 3D Joystick el cual a tiene un costo de $60, tiene tres grados de libertad y dos retornos de fuerza mas unos botones lo cual lo hace ideal para juegos. Este puede generar una fuerza cercana a los 3.3N
El Brazo Phantom es un sistema mecánico utilizado en simulaciones que necesitan 3 o 6 grados de libertad, utiliza 3 motores encoders ópticos, y potenciometros, estos últimos para medir la orientación y la cinemática del brazo. Las fuerzas de realimentación no pueden ser muy grandes ya que estas dependen de los motores incorporados. Tiene un costo de $16000 para la edicion de escritorio y $56000 para el modelo de 1.5/6.0.
Introducción al manejo de Reles, Transistores, y motores para sistemas Hápticos y Roboticos.
Nota del autor: Queda pendiente este tema por profundizar aquí.
NÚCLEO TEMÁTICO 6: Sistema de Detección de colisiones (Profundisación en OpenGL y en Doris Evolution - lua)
OBJETIVOS ESPECIFICOS:
- Identificar los procesos propios de detección de colisiones y posibles formas de realizarlas, con aplicaciones tango en Realidad Virtual como en Telepresencia.
- Identificar claramente la diferencia entre la Detección de Colisiones y la Respuesta ante colisiones.
EJES TEMÁTICOS:
- Detección de Colisiones.
- Respuesta ante colisiones.
CONTENIDO ESPECIFICO:
http://download.microsoft.com/download/6/a/2/6a218438-d337-42c3-887d-dd6feb9bf81a/20060320-ACAD-BA.ppt http://marhes.okstate.edu/~orqueda/collision_detection/1-introduccion.pdf
http://usuarios.lycos.es/macedoniamagazine/dpja3.htm
http://www.cs.unc.edu/~geom/OBB/OBBT.html Libreria de detección de colisiones sin estudiar
http://www.iearobotics.com/proyectos/cuadernos/ct9/ct9.html Otro ejemplo de libreria sin estudiar
http://irrlicht.sourceforge.net/screenshots.html Y otro mas pero mucho mas completo para realización de juegos
NÚCLEO TEMÁTICO 7: Selección y Manipulación
OBJETIVOS ESPECIFICOS:
- Identificar y aplicar las principales Técnicas de Selección y Manipulación de elementos dentro de mundos virtuales.
- Familiarizar al estudiante con Técnicas ya desarrolladas evitando así la reinvención de lo ya existente.
EJES TEMÁTICOS:
- Clasificación de la técnicas de selección y manipulación en sistemas de Realidad Virtual.
- Ejemplificar las ténicas vistas en clase con ejemplos con mundos virtuales como second life.
CONTENIDO ESPECIFICO:
Resúmen de 3D User Interfaces – Doug A. Bowman y otros - Capítulo 5 por Oscar Ariza - para la Maestría en Ingeniería de Sistemas y Computación de la Universidad de los Andes
El capítulo trata sobre las técnicas de interacción para los procesos de selección y manipulación. La manipulación se refiere al acto de realizar acciones con objetos físicos (rígidos, es decir, que no cambia la forma de los objetos durante la interacción) usando las manos. Las tareas de manipulación se clasifican de la siguiente manera:
-Canónicas:
Estas tareas buscan imitar las acciones que el humano realiza en el mundo real para alcanzar objetos y manipularlos. Cada una de estas tareas define un espacio que define variaciones de la misma tarea según un conjunto de parámetros. Las tareas canónicas y sus correspondientes parámetros son:
-Selección.
-Distancia y dirección hacia el objeto a manipular.
-Tamaño del objeto a manipular.
-Densidad de objetos alrededor del objeto a manipular.
-Número de objetos a manipular.
-Oclusión del objeto a manipular.
-Posicionamiento.
-Distancia y dirección hacia la posición inicial.
-Distancia y dirección hacia la posición final.
-Distancia a recorrer.
-Precisión requerida.
-Rotación.
-Distancia al objeto a manipular.
-Orientación inicial.
-Orientación final.
-Grados a rotar.
-Precisión requerida.
-Tareas dependientes de la aplicación:
Estas tareas se basan en aspectos específicos de la aplicación que no toman en cuenta las tareas canónicas.
-Tareas de manipulación y dispositivos de entrada.
Dependiendo de la tarea de manipulación, se debe tener en cuenta el ‘número de dimensiones de control’ (número de grados de libertad del dispositivo) y la ‘integración’ de dichas dimensiones (número de grados de libertad que pueden ser controlados imultáneamente en un solo movimiento), con el fin de facilitar el uso de movimientos naturales y bien coordinados que mejoren el desempeño del usuario. Se recomienda que las tareas que requieran precisión sean ejecutadas con las manos (compuestas por grupos de músculos pequeños y rápidos) y por otro lado, se recomienda evitar que la
manipulación de un objeto requiera de varios movimientos (es decir, que sea necesario soltarlo para agarrarlo de otra forma) o ‘clutching’.
La manipulación 3D tiene dos puntos de vista:
-Basada en el Isomorfismo:
Sugiere una estricta correspondencia geométrica entre los movimientos en el
mundo real y el mundo virtual. Sin embargo, es impráctico debido a las
restricciones de los dispositivos de entrada e inefectivo debido a las
limitaciones de los humanos.
-No basada en el Isomorfismo:
Se desvía del realismo proveyendo herramientas virtuales que les permiten a
los usuarios manipular los objetos de manera diferente a la usual (magic
tools) sin sacrificar la usabilidad y el desempeño.
-Clasificación de las técnicas de manipulación.
-Por descomposición:
Define subprocesos de indicación, confirmación, ejecución y
retroalimentación, para las técnicas de selección y manipulación.
-Por metáfora:
Cada técnica es relacionada con una metáfora que forma un modelo mental
que a su vez define que puede hacer un usuario (affordance) y que no puede
hacer (constraint). Esta clasificación se divide en metáforas exocéntricas (el
usuario interactúa en tercer persona) y en metáforas egocéntricas (el usuario
interactúa en primera persona).
-Técnicas de interacción por señalamiento.
Estas técnicas permitan que el usuario seleccione y manipule fácilmente objetos que
están por fuera de su área de alcance con simplemente señalarlos o apuntar hacia ellos.
El señalamiento es una buena técnica de selección pero una mala técnica de
manipulación. Por otro lado, en estas técnicas es importante establecer cómo el usuario
define la dirección de señalamiento y la retroalimentación que recibe el usuario al
seleccionar uno o varios objetos. Se presenta la siguiente clasificación:
-Emisión de rayos (ray-casting):
El usuario señala un objeto con un rayo virtual que define la dirección de
señalamiento y un segmento de línea virtual conectado a la mano virtual
visualiza dicha dirección. Mas de un objeto puede ser interceptado con la
línea, sin embargo, solo es seleccionado el que se encuentre más cercano al
usuario.
-Señalamiento con dos manos (two-handed pointing):
La dirección de señalamiento se define con ambas manos: una mano (la más
cercana al usuario) define el origen del rayo virtual, mientras que la otra
mano define la dirección en que apunta.
-Iluminación y apertura (flashlight and aperture):
Es una técnica de selección que no requiere la precisión ni la exactitud de la
emisión de rayos. Los objetos son seleccionados cuando son iluminados al
encender una luz tipo flash sin necesidad de apuntar dicha luz directamente
hacía ellos. Esta técnica reemplaza el rayo virtual con un volumen cónico de
selección (spotlight con la base del cono al extremo opuesto del dispositivo
que opera el usuario), permitiendo que objetos pequeños y lejanos
sean fácilmente seleccionados. El problema de esta técnica es que puede
presentarse ambigüedad cuando objetos diferentes al objetivo quedan
contenidos dentro del cono de selección. Sin embargo, no se requiere que el
objeto quede completamente dentro del volumen de selección para que sea
seleccionado. Además, la técnica de apertura permite que el usuario
modifique el tamaño de la base del cono para realizar tareas de selección
más precisas.
-Imagen-Plano (Image-Plane)
El usuario selecciona y manipula objetos 3D por medio de proyecciones 2D (el
usuario solo requiere 2 DOF para realizar las tareas) que son presentadas en
un plano virtual ortogonal al punto de vista. Esta técnica simula el contacto
directo con los objetos haciendo que las tareas de selección se lleven a cabo
de manera intuitiva.
-Caña de pescar (Fishing-Reel):
Esta técnica permite que el usuario seleccione un objeto con emisión de rayos
y luego lo acerque o lo aleje para manipularlo con la ayuda de otro
dispositivo. Debido a esto, esta técnica presenta problemas de ‘clutching’ que
reducen el desempeño del usuario.
-Técnicas de manipulación directa (manos virtuales).
El usuario selecciona y manipula objetos con su mano, representada en el ambiente
virtual por un cursor 3D (mano virtual). La tarea de indicar una selección consiste
simplemente en interceptar el objetivo con dicho cursor. Se presenta la siguiente
clasificación:
-Mano virtual simple:
Hay una correspondencia directa entre los movimientos de la mano del
usuario y los movimientos de la mano virtual. Esta técnica esta basada en el
isomorfismo, pero tiene como desventaja que el usuario solo puede
interactuar con objetos que estén a su alcance (a una distancia no superior a
la permitida por sus brazos extendidos).
-Go-Go:
Mejora la técnica anterior con la adición de un mecanismo que permite variar
la longitud de alcance de la mano virtual con el fin de interactuar con objetos
lejanos. La posición del tracker en la mano del usuario con respecto a un
sistema de coordenadas egocéntrico determina dicha longitud de forma no
lineal y proporcional a que tan extendido esté el brazo. Esta técnica presenta
problemas de precisión cuando se posicionan objetos distantes.
-Técnicas WIM (‘world in miniature’).
Otra alternativa que permite extender el alcance del usuario es presentarle una
representación del mundo virtual a escala reducida (WIM). El usuario interactúa
indirectamente con las representaciones de los objetos contenidas en el WIM. Sin
embargo, cuando el mundo virtual es extenso, se debe usar un factor de escala que
reduce el tamaño de las representaciones de los objetos a un grado en que las tareas de
manipulación y selección pueden requerir demasiada exactitud.
-Combinación de técnicas.
La ‘agregación de técnicas’ es la forma más simple de combinar varias técnicas,
proveyendo al usuario de un mecanismo explícito que le permita seleccionar una de las
técnicas de manipulación que esta contenida en un grupo de posibles opciones. Otra
forma, conocida como ‘integración de técnicas’, hace que la interfaz cambie de técnica de
interacción automáticamente dependiendo del contexto de la tarea en ejecución. Se
presentan algunos ejemplos:
-HOMER (‘hand-centered object manipulation extending ray-casting’):
El usuario selecciona un objeto por medio de la técnica de emisión de rayos,
sin embargo, el objeto no queda conectado al rayo virtual, en cambio, la
mano virtual es posicionada sobre el objeto y la técnica cambia al modo de
manipulación, permitiendo que el usuario posicione y rote el objeto.
-Scaled-World Grab:
El usuario selecciona un objeto por medio de la técnica imagen-plano, la
interfaz cambia al modo de manipulación para posicionar y rotar el objeto y el
mundo virtual se reduce en escala alrededor del punto de vista del usuario. Al
igual que la técnica HOMER, permite interactuar fácilmente con objetos
lejanos, pero no es efectiva si el usuario desea posicionar un objeto que está
a su alcance en una posición más lejana.
-Voodoo Dolls:
Esta técnica de interacción usa ambas manos y requiere el uso de guantes
(pinch gloves) que permitan cambiar fácilmente de marco de referencia
mientras se manipula un objeto, permitiendo que el usuario pueda interactuar
con objetos sin importar su tamaño ni la distancia de alcance. El usuario
selecciona un objeto (por ejemplo con la técnica imagen,-plano) y en ese
momento se crea una copia temporal en miniatura (doll) que permite al
usuario interactuar indirectamente (similar a WIM) con el objeto.
-Rotación 3D no basada en el isomorfismo.
Se presentan algunas formas de manipular la orientación de un objeto en las que no se
realiza un mapeo directo entre la rotación del dispositivo y la rotación del objeto, en
cambio, es posible amplificar (en forma relativa o absoluta) o reducir la escala de la
información recibida del dispositivo con el fin de facilitar la ejecución de tareas que
requieren precisión.
-Manipulación 3D en equipos de escritorio.
Se presentan algunas técnicas que permiten que el usuario utilice dispositivos con 2 DOF
(mouse, etc.) para realizar tareas de manipulación que requieran 6 DOF, por medio de la
separación y selección de los grados de libertad a manipular:
-Controles 2D:
El usuario usa el teclado, sliders, menus, etc., para determinar el valor un
grado de libertad del objeto. En algunos casos proporciona precisión y se
facilita su uso con vistas ortográficas para cada eje.
-Controles 3D:
Cuando se selecciona un objeto, son desplegados pequeños controles 3D que
pueden ser activados y arrastrados para manipular un subconjunto de grados
de libertad (posición, rotación, escala, etc.) del objeto.
-Esfera virtual:
Permite rotar un objeto en 3D usando los 2 grados de libertad proporcionados
por el movimiento del mouse. El objeto a manipular está contenido en el
centro una esfera invisible que es rotada en un eje perpendicular al definido
por la dirección del cursor en la pantalla y en proporción a la distancia
recorrida por el cursor.
-ARCBALL:
Es similar a la técnica anterior, pero se hacen algunas correcciones, haciendo
que el mapeo de la posición del cursor sobre la rotación del objeto virtual se
realice sobre un círculo que representa la proyección de la esfera virtual en
un plano (pantalla).
Finalmente, se presentan algunas recomendaciones a tener en cuenta durante el proceso
de diseño:
-Tomar en cuenta las técnicas de manipulación existentes y no ‘reinventar la rueda’.
-Analizar las tareas antes de seleccionar una técnica de manipulación en particular.
-Tomar en cuenta los dispositivos al definir la técnica de interacción.
-Usar técnicas que reduzcan la presencia de ‘clutching’.
-Tener en cuanta las técnicas no basadas en isomorfismo.
-Usar técnicas de señalamiento para seleccionar objetos y técnicas de ‘mano virtual’ para
manipularlos.
-Tratar de imitar la orientación del objeto virtual con la del dispositivo facilita las tareas
de selección.
-Reducir los grados de libertar a operar por el usuario cuando sea posible.
-Considerar las ventajas y desventajas que existen al usar las diferentes técnicas.
http://www.itchy-animation.co.uk/light.htm
NÚCLEO TEMÁTICO 8: Navegación
OBJETIVOS ESPECIFICOS:
- Formalizar el conocimiento recopilado sobre técnicas de navegación identificando cada uno de sus componentes y clasificación.
EJES TEMÁTICOS:
- Navegación, búsqueda de rutas en mundos de Realidad Virtual.
CONTENIDO ESPECIFICO:
Fuente: 3D User Interfaces – Doug A. Bowman y otros - Capítulo 6
El capítulo trata sobre la técnicas de interacción relacionadas con la navegación (o recorrido), es decir, la acción de trasladarse desde la posición actual hacia una posición destino o en una dirección determinada. Se puede decir que la navegación es la tarea mas común dentro de las interfaces 3D y puede estar combinada con otras técnicas durante el proceso de interacción. Debido a esto, la usabilidad de estas técnicas debe ser de gran importancia y estar encaminada a que la navegación se realice de manera intuitiva.
Las tareas de navegación son las siguientes:
-Exploración:
El movimiento del usuario no tiene un objetivo específico, simplemente, recorre el ambiente, obtiene información sobre los objetos y lugares y se familiariza con el. Las técnicas que soportan exploración deben permitir control continuo y directo de la cámara o interrumpir un movimiento previamente iniciado.
-Búsqueda:
El usuario se dirige hacia un lugar específico dentro del ambiente conociendo previamente su localización (primed seach) o sin conocer su localización o el camino que lo lleve a encontrarlo (naïve search).
-Ejecución de maniobras:
El usuario realiza movimientos pequeños y precisos sobre un área reducida (el uso mas común es el posicionamiento preciso de la cámara). La falta de soporte a este tipo de tareas en las interfaces puede provocar frustración al usuario.
Algunas características adicionales relacionadas con la navegación son:
-Distancia a recorrer (rango corto, medio o largo).
-Número de cambios de dirección.
-Visibilidad de la posición destino desde el punto de partida.
-Número de grados de libertad requeridos para el movimiento.
-Precisión en el movimiento que requiere la tarea.
-Tareas primarias llevadas a cabo mientras se realiza el recorrido.
Las técnicas de navegación se clasifican de la siguiente forma:
-Técnicas activas / pasivas:
En las técnicas activas la posición de la cámara es controlada directamente por el usuario, por el contrario, en la técnicas pasivas dicha posición es controlada por el sistema. Existe híbridos mediante los cuales el usuario planea el recorrido y el sistema se encarga de ejecutarlo.
-Técnicas físicas / virtuales:
El término físico se refiere a que los movimientos del cuerpo del usuario afectan directamente la posición y la rotación de la cámara. En la técnica virtual el cuerpo del usuario permanece estacionario mientras la cámara cambia de posición y/o orientación. Estas técnicas pueden ser combinadas ortogonalmente con la clasificación anterior.
-Clasificación basada en la descomposición de tareas:
-Bowman, Koller y Hodges (1997):
-Selección de la dirección o la posición destino.
-Selección de la velocidad y/o aceleración.
-Condiciones de inicio, continuación y terminación.
-Bowman, Davis y otros (1999):
-Iniciar el movimiento.
-Indicar la posición:
-Definir la posición (continua, discreta, ruta).
-Definir la velocidad.
-Definir la aceleración.
-Indicar la orientación:
-Detener el movimiento.
-Clasificación por metáfora.
Esta clasificación no permite realizar descomposición de tareas, pero facilita el entendimiento de la técnica desde el punto de vista del usuario.
En las siguientes secciones se presentan las 6 metáforas más comunes:
TÉCNICAS DE LOCOMOCIÓN FÍSICA
En esta técnica el usuario realiza esfuerzo físico para transportarse dentro del ambiente virtual y según el tipo de locomoción se clasifica en:
-Caminata:
El usuario realiza una caminata sobre un espacio real y sus movimientos son mapeados al ambiente virtual por medio de sistemas de tracking (Hiball - Outside looking in / Inside looking out). Esta
limitado a áreas pequeñas debido a limitaciones tecnológicas y espaciales (cableado vs. inalámbrico
Sin embargo, proporciona la sensación de presencia y facilita la orientación espacial.
-Caminata estacionaria:
El usuario realiza movimientos con sus pies para simular una caminata permaneciendo en un solo sitio,
eliminando la limitación espacial de la técnica anterior. Esta técnica es buena para recorrer
ambientes extensos, sin embargo, presenta problemas con el reconocimiento de los movimientos de
los pies y algunos investigadores han reportado que los usuarios son mas tolerantes al movimiento
físico en ambientes reales que en ambientes virtuales.
-Dispositivos para simular movimiento:
Esta técnica utiliza dispositivos de locomoción que permiten que el usuario realice movimientos
normales de traslación, proporcionándole la sensación de movimiento, pero manteniendo su cuerpo en un
solo sitio. Los dispositivos pueden simular pendientes, pero tienen problemas de latencia cuando se
presentan cambios bruscos de velocidad debido a la maquinaria hidráulica de la que están compuestos.
-Dispositivos basados en pedales (monocicletas, bicicletas, etc.):
Esta técnica se utiliza cuando se requiere movimiento físico que no sea necesariamente una caminata.
Es fácil de implementar pues el sistema solo debe reportar la velocidad a la que se accionan los pedales y se utiliza la inclinación del cuerpo para cambiar la orientación.
TÉCNICAS DE CAMBIO DE DIRECCIÓN
Esta técnica le permite al usuario tener control continuo sobre la dirección de su movimiento y
presenta la siguiente clasificación:
-Orientación guiada por la mirada:
El usuario se traslada en la dirección hacia la que está observando. Dicha dirección se calcula
utilizando los valores obtenidos de un tracker. Facilita la determinación de la dirección en el plano
horizontal pero se dificulta verticalmente. El problemas más grande que tiene es que acopla la
dirección de observación con la del recorrido, haciendo que no se pueda observar en una dirección
mientras se traslada en otra.
-Pointing:
Desacopla la dirección de observación y de movimiento, haciendo que ésta última esté determinada por
la orientación de un traker colocado en la mano del usuario.
-Orientación guiada por el torso:
La dirección del movimiento es determinada por la orientación de un traker colocado en el torso del
usuario. Esta técnica está motivada por el hecho de que representa un comportamiento natural y deja
las manos libres para realizar otras tareas. Sin embargo, es facil orientar el torso en el plano
horizontal, pero no hacia arriba o hacia abajo.
-Cámara guiada por la mano:
La posición y orientación (en coordenadas absolutas) de la cámara son determinadas por un tracker colocado en la mano del usuario.
-Orientación guiada por dispositivos:
La orientación es determinada por la interacción con una metáfora de vehículo, que en la mayoría de los casos está representada por un volante, pero también pueden ser manubrios, plataformas, etc.
-Controlador de movimiento virtual (VMC):
Este dispositivos de propósito general, permite realizar movimientos en un ambiente virtual permitiendo que los usuarios realicen un subconjunto de los movimientos que tendrían que hacer en el
mundo real. Esta compuesto por una plataforma con sensores de presión, en la cual la velocidad del movimiento es proporcional a la distancia desde el centro de la plataforma. Esta limitada a movimiento
en 2D.
-Orientación semiautomática:
El sistema provee restricciones y reglas para el movimiento del usuario y éste tiene el control de la orientación bajo dichas restricciones.
TÉCNICAS DE DETERMINAR UNA RUTA
Permiten que el usuario defina una ruta dentro del ambiente para que el sistema se encargue de trasladar el usuario por dicha ruta. Presenta la siguiente clasificación:
-Dibujar la ruta:
El usuario dibuja la ruta deseada sobre una interfaz 3D o 2D.
-Marcar puntos:
El usuario pone marcas discretas sobre el ambiente (2D o 3D) y el sistema se encarga de generar un
camino continuo a lo largo de dichos puntos (por medio de líneas o curvas).
-Manipulación de una representación del usuario:
El usuario planea la ruta sobre una representación de él mismo sobre el ambiente en escala reducida
(WIM) y luego el sistema ejecuta los movimientos sobre dicha ruta en el ambiente a escala normal.
TÉCNICAS BASADAS EN UN OBJETIVO
Permiten que el usuario determine un destino final sobre el ambiente virtual para que el sistema lo
traslade hacia dicha posición. Esta clasificada en:
-Definición del objetivo con mapas:
El usuario cambia su posición dentro de una representación en miniatura o mapa 2D y cuando termina su posición en el ambiente virtual corresponde con la que fué seleccionada en el mapa.
-Zoomback
El usuario puede emitir rayos para seleccionar objetos y a continuación ser trasladado en frente de dicho objeto, con la opción de poder retornar a la posición anterior.
TÉCNICAS DE MANIPULACIÓN MANUAL
Permiten manipular objetos o la cámara para poder ver el ambiente desde diferentes puntos de vista. Se clasifica en:
-Grabbing the air:
El usuario selecciona un punto dentro del ambiente y a continuación con gestos de la mano se mueve el ambiente mientras la cámara permanece estacionaria.
-Manipulación de objetos fijos:
El usuario selecciona un objeto dentro del ambiente y a continuación con gestos de la mano cambia la posición y orientación relativa de la cámara con respecto a dicho objeto (el cual permanece estacionario).
TÉCNICAS BASADAS EN EL CAMBIO DE ESCALA
Permiten que el usuario cambie la escala del mundo virtual para que un paso en el mundo real, represente cualquier distancia (m.m., k.m., etc.). Sin embargo, hace que el movimiento del usuario sea menos preciso y que se requieran dispositivos adicionales para controlar la escala.
TÉCNICAS PARA MANIPULAR EL PUNTO DE VISTA
Permiten controlar la posición y la orientación de la cámara. Se clasifican en:
-Head tracking:
Basadas en la orientación de un traker colocado en la cabeza del usuario.
-Vista orbital:
Permite observar un objeto virtual desde diferentes vistas.
-Nonisomorphic rotation:
Permite que un usuario pueda ver de forma completa el ambiente que lo rodea.
-Técnica e esferas virtuales:
Permiten rotar objetos virtuales tomando la cámara como referencia.
TÉCNICAS PARA ESPECIFICAR LA VELOCIDAD
Permiten definir la velocidad de navegación según la posición relativa de la cabeza o de las manos o con técnicas por medio de las cuales el sistema aumenta la velocidad proporcionalmente con el tiempo que dura el movimiento.
Finalmente la lectura propone algunas guías de diseño relacionadas con las técnicas de navegación:
-Seleccionar la técnica adecuada según la aplicación.
-Usar una combinación apropiada de técnicas de navegación, dispositivos de despliegue y dispositivos de entrada.
-Seleccionar técnicas de navegación que se integren fácilmente con las otras técnicas de interacción presentes en la aplicación.
-Dar la opción de múltiples técnicas de navegación para soportar más de una tarea dentro de la aplicación.
-Facilitar las tareas simples de navegación con técnicas basadas en objetivos.
-Utilizar técnicas de control de dirección para tareas de exploración y búsqueda.
-Usar técnicas de locomoción física si se requiere proporcionar una alta sensación de presencia.
como ejemplo tenemos:
Resumen sobre guías de diseño:
Mauricio Gómez 200127381
Ejemplo completo de guía de diseño para pozos petroleros:
La aplicación consiste en una herramienta capaz de integrar en un ambiente tridimensional información sobre datos sismológicos, horizontes, propiedades de las rocas, perforaciones ya existentes, reconocimientos previos, logs de datos, mapas de tuberías, peligros de perforación. (1). Ya que estos datos son visualizados en un espacio tridimensional común inconsistencias o errores en la información que aportan distintos especialistas salen fácilmente a la luz.
Este sistema actualmente esta funcionando con trackers en cabeza y mano lo que permite trabajar tanto en ambientes tridimensionales tipo CAVE como en sistemas de pantalla gigante, sistemas de pantalla curva, bancos de pantallas inmersivos, estaciones de escritorio y PCs (1).
Esta tecnología permite que tanto la selección como la manipulación sean directas, tomando el objeto a modificar como por ejemplo la ruta de una tubería que se ha calculado con anterioridad y gráficamente se observa algún problema con rocas existentes o tuberías antiguas que no se tuvieron en cuenta dentro de los mismos.
En cuanto a la selección de menús de información que se encuentren fuera del alcance de la mano se propone seleccionar el menú con Ray Casting y traerlo utilizando la técnica de Fishing Reel de manera que se pueda hacer una manipulación directa sobre el menú.
Menus:
La información que se despliega en el menú esta directamente relacionada con un objeto de la escena (a excepción del ambiente enviroment).
En el caso de seleccionarse un elemento de la escena con manipulación directa se puede abrir el menú tocando las puntas de los dedos índice y pulgar sobre el y haciendo selección directa sobre el mismo.
La manera de seleccionar cada una de las opciones del menú es acercando el dedo indice al boton tridimensional.
Información de menú cuando se toca la tubería:
Tabla: Se abre una tabla con información sobre esta perforación, fecha de inicio, nombre, estadísticas obtenidas hasta la fecha, herramientas utilizadas como brocas cantidad de tubo, largo del conducto, si existe fecha final,
Aislar: Se coloca en la escena únicamente esta perforación para hacer analisis con otros elementos que no sean tuberías.
Integrar: Se deja la escena como se encontraba antes de utilizar la opción aislar.
Editar: Permite cambiar manualmente la ruta de la tubería ya que es posible que en la visualización se percibe que no llega al blanco deseado (el blanco deseado se interpreta como la zona profunda en la cual la perforación llega al objetivo propuesto)
Si se une la punta de los dedos lejos de cualquier objeto de la escena se supone que se quiere abrir el menú del ambiente (enviroment) y el menú propuesto sería:
Tabla: Muestra toda la información posible de la plataforma, como número de perforaciones realizadas y planificadas, con fechas y datos clave.
Mostrar todo: Si en alguna parte del procedimiento se decidió aislar algún elemento como un tubo entonces se muestra nuevamente toda la información de la escena.
Zoom: Permite cambiar a modalidad de zoom, si se acerca la mano al cuerpo se hace zoom positivo(se acerca a la escena) mientras que si se aleja se hace zoom negativo, y esto ocurre hasta que nuevamente una la punta de sus dedos.
De manera similar se deben realizar menús personalizados para cada unos de los componentes mencionados al comienzo del documento (1).
LandMarks: (Activar o Desactivar) Utilizar Landmarks para identificar los elementos predominantes en la escena que no son obvios para usuarios novatos mas sin embargo para usuario experimentados lo son.
Survey: (Activar o Desactivar) Se utiliza para mostrar información numérica trascendental directamente sobre el ambiente simulado de manera que no sea necesario abrir menus para obtener información predominante.
WIN: (Activar o Desactivar) Se activa un mapa y un compas (brujula) para saber la ubicación dentro de la simulación principalmente cuando se esta demasiado cerca de superficies estudiando detalles del terreno.
En cuanto se haga una aproximación sobre un elemento de la superficie terminal o de la superficie de la tierra donde se comenzara la exploración para ver detalles se hace necesario la incorporación de un WIN el cual ubicara constantemente al usuario dentro de la animación con el fin de guiarlo a llegar hasta el objetivo especifico. Un ejemplo de esto es querer hacer una aproximación a los blancos objetivos (puntos donde se quiere que lleguen las tuberías). y la verificación de existencia de fallas tectónicas cercanas a estos. En este caso el poder proseguir con la exploración visual por medio del WIN permitirá la ubicación espacial dentro del entorno sin necesidad de perder la inmersión al hacer zoom + y – sobre la escena completa (para hacer este tipo de zoom + y – se utilizara el menú de enviroment).
Tanto esto blancos objetivos, como fallas tectónicas, etc se podran resaltar a gusto del usuario (por medio del menú) utilizando landmarks.
Interaccion3Ddarwinwayfinding.swf
1. Kim Touysinhthiphonexay and Joseph Bradley
University of Colorado, BP Center for Visualization
June 2002
www.colorado.edu/Research/ bpVisCenter/Publications/IDPinGocad.pdf
www.colorado.edu/Research/ bpVisCenter/Publications/STOinGocad.pdf
2. Gocad Herat modeling
http://gocad.ensg.inpl-nancy.fr/article.php3?id_article=25
3. www.colorado.edu/Research/ bpVisCenter/PDF/VR2004_paper.pdf
NÚCLEO TEMÁTICO 9: WayFinding - Búsqueda de Rutas
OBJETIVOS ESPECIFICOS:
- Identificar claramente el proceso que realiza el humano para crear un ruta a través de un ambiente virtual usando y/o adquiriendo conocimiento espacial y ayudado por marcas o indicadores contenidos dentro del mismo ambiente.
EJES TEMÁTICOS:
- Navegación, búsqueda de rutas en mundos de Realidad Virtual.
CONTENIDO ESPECIFICO:
Interaccion3Ddarwinwayfinding.swf
Fuente: 3D User Interfaces - Doug A. Bowman y otros - Capítulo 7
El capítulo trata sobre la tarea de interacción relacionada con la búsqueda de rutas. Dicha tarea es el componente cognitivo de la navegación y define el proceso que realiza el humano (algunas veces inconscientemente) para crear una ruta a través de un ambiente virtual usando y/o adquiriendo conocimiento espacial y ayudado por marcas o indicaciones contenidos dentro del mismo ambiente.
Los propósitos de la búsqueda de una ruta en un ambiente virtual son los siguientes:
-Obtener conocimiento espacial en el ambiente virtual para usarlo en el mundo real.
-Navegar a través de ambientes complejos para realizar otras tareas.
Las ayudas proporcionadas al usuario durante la búsqueda de una ruta pueden ser definidas:
-Con respecto al ambiente:
Ayudas que se definieron a propósito durante el diseño del ambiente para facilitar las tareas de búsqueda.
-Con respecto al usuario:
Hacen uso de las características de percepción del usuario y pueden usar varios de sus sentidos. Estas ayudas están orientadas a proporcionarle al usuario la sensación de presencia.
La búsqueda de una ruta involucra un proceso de toma de decisiones en el cual el usuario realiza operaciones mentales con la información que obtiene del ambiente (input) y decide la trayectoria hacia la cual moverse (output). La información obtenida del ambiente es almacenada en la memoria de largo plazo y es la que define el mapa cognitivo: Estructura mental jerárquica que representa el 'conocimiento espacial' obtenido. El proceso de consultar, usar y construir árboles de recorrido con el mapa cognitivo se conoce como 'mapeo cognitivo'.
La navegación esta basada en un ciclo de retroalimentación que de forma iterativa compara la relación entre la información obtenida del ambiente y el mapa cognitivo, dicha comparación le permite al usuario determinar su posición y orientación. El conocimiento de la localización y de la dirección se conoce como 'orientación espacial', la combinación de ésta con el conocimiento espacial se conoce como 'situation awareness'.
Se presentan las tareas que se pueden llevar a cabo:
-Exploración:
El usuario se desplaza por el ambiente sin un objetivo en particular.
-Búsqueda:
El usuario busca una posición conocida o desconocida mediante el uso/adquisición de conocimiento espacial.
-Maniobra:
El usuario realiza movimientos pequeños y precisos con el fin de alcanzar una posición específica.
-Movimiento por una trayectoria específica:
El usuario es guiado automáticamente por el sistema a lo largo de una ruta predefinida.
-Tipos de conocimiento espacial:
-'Landmark knowledge':
Conocimiento compuesto por las características visuales más llamativas o destacadas de un lugar.
-'Procedural knowledge':
Conocimiento que describe la secuencia de acciones requeridas para seguir una ruta o ir de un lugar a otro.
-'Survey knowledge':
Conocimiento topológico del ambiente como la localización/orientación de objetos y la distancia entre ellos.
-Marcos de referencia:
-Egocéntrico (primera persona):
Marco de referencia relativo a una parte del cuerpo humano (ojo, cabeza, torso, etc.).
-Exocéntrico (tercera persona):
Marco de referencia relativo a un objeto o a un lugar dentro del ambiente.
-Factores tomados en cuenta (con respecto al usuario) en el soporte proporcionado a las tareas de búsqueda de rutas:
-Campo de vista (FOV):
En campo de vista grande reduce el número de movimientos que realiza el usuario con la cabeza, facilita la obtención de relaciones espaciales y provee visión periférica que mejora el desempeño del usuario cuando se está trasladando.
-Marcas (indicaciones) de movimiento:
Permiten proveer al cerebro indicaciones (a través de la visión, el sistema vestibular o el cerebro mismo) que facilitan los juicios hechos por el usuario para determinar la profundidad y dirección del movimiento. Además, evitan conflictos entre la información física y la que proviene de los sentidos.
-'Multisensory output':
Provee información direccional y de distancia al usuario por medio de la emisión de sonidos, la variación del volumen (según la distancia a la fuente del sonido) y mapas táctiles que generan contornos que pueden ser percibidos por el tacto o la vista (facilitando la obtención de conocimiento espacial en personas con problemas de visión).
-Presencia:
La sensación de presencia debe ser mejorada y depende da factores como los sentidos involucrados, conocimiento inconsciente de la posición de los miembros ('propioception') y respuesta del usuario a los sistemas inmersivos. Se recomienda el uso de representaciones virtuales del usuario que faciliten la adquisición del conocimiento espacial.
-Estrategias de búsqueda:
Se presentan algunos de los recorridos recomendados para realizar búsquedas en ambientes virtuales y externos, como realizar recorridos perpendiculares a una línea de recorrido predefinida (basic line search),
siguiendo un patrón de cuadrados o círculos concéntricos desde un origen determinado (pattern search), siguiendo el contorno de una región (contour search) y por último partir de un origen determinado en todas las direcciones posibles hasta encontrar el objetivo (fan search). Otra estrategia es proporcionar al usuario una vista aérea del ambiente en lugar de realizar una navegación terrestre.
-Factores tomados en cuenta (con respecto al ambiente) en el soporte proporcionado a las tareas de búsqueda de rutas:
-Diseño del ambiente:
Los ambientes extensos deben ser fragmentados en regiones más pequeñas, creando una organización espacial interrelacionada. También se recomienda guardar una correspondencia entre los marcos de referencia (egocéntrico y exocéntrico) por medio de marcas o señales direccionales. Adicionalmente, se
deben presentar ayudas (inspiradas en el mundo real) que faciliten la estimación de la profundidad y la distancia como el uso de líneas que definan el horizonte, uso de niebla, uso de sombras, manejo del color y uso de texturas que faciliten el reconocimiento de lugares o rutas antes visitados.
-Indicaciones artificiales:
Se presentan las siguientes ayudas que pueden estar contenidas en el ambiente o que pueden ser activadas por el usuario cuando el las requiera:
-Mapas:
Provee una representación exocéntrica del ambiente que facilita la orientación del usuario. Se recomienda usar indicadores YAH ('you are here') para establecer una correspondencia continua entre los marcos de referencia. La escala de los mapas debe ser variable y la orientación debe estar alineada con el ambiente para evitar la carga cognitiva requerida por el usuario al tener que rotarlo mentalmente. Se debe tener en cuenta que el tamaño, la resolución y el contraste no deben interferir con el despliegue del ambiente.
-Brújula:
En aplicaciones relacionadas con el entrenamiento en navegación una brújula proporciona indicaciones o marcas direccionales.
-Símbolos:
Al igual que en el mundo real, proveen conocimiento espacial e indican direcciones.
-Objetos de referencia:
Son objetos de los que se conoce muy bien su tamaño y que permiten realizar estimaciones de distancia o relaciones de tamaño.
-'Artificial landmark':
Son objetos o lugares fácilmente distinguibles que permiten mantener la orientación espacial, el orden de un recorrido o estimar distancia u orientación.
-Rastros:
Son rastros a manera de huellas que son colocados directamente en el ambiente o sobre un mapa y que permiten realizar el recorrido en sentido contrario o marcar los lugares recién visitados.
-Indicaciones de sonido y olor:
El sistema puede explicar de manera auditiva la ruta al usuario o usar sonidos para presentar indicaciones de distancia y dirección. Adicionalmente, el audio se puede combinar con la generación de olor con el fin de identificar objetos de manera única dentro del ambiente.
Las técnicas utilizadas para la búsqueda de rutas pueden ser evaluadas en relación al tiempo empleado en llegar a un lugar determinado o en relación al análisis realizado por el usuario para moverse a través del ambiente. Además, se puede pedir a los usuarios que dibujen diagramas o mapas del ambiente con el fin de determinar la calidad del conocimiento espacial adquirido.
Finalmente se presentan algunas consideraciones a tener en cuenta:
-No presentar demasiadas indicaciones al usuario.
-Usar dispositivos que produzcan indicaciones reales de movimiento (treadmills, etc.) .
-No usar tele-transportación.
-Integrar las técnicas de búsqueda de rutas con las técnicas de navegación.