Este proyecto es una experiencia de entrenamiento en Realidad Virtual (VR) diseñada para enseñar al usuario a interactuar con un entorno VR mediante instrucciones guiadas y ejercicios prácticos.
El usuario avanza en el entrenamiento siguiendo objetivos paso a paso, aprendiendo mecánicas fundamentales de VR como agarrar objetos, pulsar botones, teletransportarse, desplazarse por el entorno, usar hand tracking e interactuar con sistemas de interfaz dentro del mundo virtual. Cada sección del entrenamiento se centra en una mecánica concreta, garantizando un aprendizaje progresivo e intuitivo.
Un desarrollador: Responsable de toda la programación, sistemas de interacción VR, integración 3D y desarrollo general del proyecto.
Lenguaje de programación: C#
Motor de juego: Unity
Sistema VR: OpenXR
Dispositivo objetivo: Meta Quest 3
Métodos de entrada: Controladores VR y seguimiento de manos (hand tracking)
Modelado 3D: Maya
Texturizado: Substance Painter
Diseño gráfico: Photoshop
Movimiento del jugador en VR:
Sistema de teletransporte con opción de movimiento suave, compatible con controladores y hand tracking.
Sistema de entrada dual (controladores y manos):
Soporte completo para controladores de Meta Quest 3 y seguimiento de manos, permitiendo cambiar entre ambos métodos de forma fluida.
Sistema de interacción con objetos:
El usuario puede agarrar, sostener, mover y soltar objetos usando controladores o manos, con interacciones basadas en físicas.
Sistema de interacción con botones:
Botones físicos y virtuales que responden a pulsaciones con dedos o controladores para activar sistemas y avanzar en el entrenamiento.
Sistema de entrenamiento guiado:
Instrucciones paso a paso que guían al usuario en cada ejercicio. El progreso se bloquea hasta completar la acción correcta.
Sistema de validación de acciones:
Verifica que el usuario realice la interacción adecuada antes de permitir el avance a la siguiente fase.
Sistema de minimapa:
Minimapa integrado en el entorno VR que el usuario puede abrir para orientarse y localizar objetivos.
Sistema de puntos de teletransporte:
Zonas de teletransporte definidas que guían al usuario hacia áreas específicas del entrenamiento.
Sistema de feedback:
Feedback visual, sonoro y háptico para confirmar acciones correctas o indicar errores.
Sistema de eventos interactivos:
Lógica basada en eventos activados por acciones del usuario, gestos de manos, proximidad y estados de interacción.
Sistema de animaciones:
Animaciones de apertura de puertas, interacción con paneles, pulsación de botones, transiciones de UI y elementos del entorno.
Efectos visuales:
Efectos visuales sutiles y señales de iluminación para guiar la atención del usuario y reforzar el aprendizaje.
Modelado 3D:
Creación de entornos y props interactivos en Maya, optimizados para rendimiento en VR.
Texturizado:
Texturas PBR creadas en Substance Painter e integradas en Unity.
Diseño de UI:
Elementos de interfaz adaptados a VR, iconos y gráficos instructivos diseñados en Photoshop.
Iluminación:
Implementación del sistema de iluminación de Unity para garantizar claridad visual, comodidad y guía dentro del entorno VR.
El proyecto fue desarrollado como un prototipo de entrenamiento en VR para Meta Quest 3, probado con controladores y hand tracking, y recibió valoraciones positivas por su usabilidad, claridad y facilidad de aprendizaje para usuarios sin experiencia previa en Realidad Virtual.
This project is a Virtual Reality training experience designed to teach users how to interact with a VR environment through guided instructions and practical exercises.
The user progresses through the training by following step-by-step objectives, learning core VR interactions such as grabbing objects, pressing buttons, teleporting, navigating the environment, using hand tracking, and interacting with in-world UI systems. Each training section focuses on a specific interaction mechanic, ensuring an intuitive and progressive learning experience.
One Developer: Responsible for all programming, VR interaction systems, 3D integration, and overall project implementation.
Programming Language: C#
Game Engine: Unity
VR System: OpenXR
Target Device: Meta Quest 3
Input Methods: VR controllers and hand tracking
3D Modeling: Maya
Texturing: Substance Painter
Graphic Design Tools: Photoshop
VR Player Movement:
Teleportation-based locomotion with optional smooth movement, compatible with both controllers and hand tracking.
Dual Input System (Controllers & Hands):
Full support for Meta Quest 3 controllers and native hand tracking, allowing seamless switching between input methods.
Object Interaction System:
Users can grab, hold, move, and release objects using controllers or hands, with physics-based interactions.
Button Interaction System:
Physical and virtual buttons that respond to finger presses or controller input to activate systems and advance training steps.
Guided Training System:
Step-by-step instructions guide the user through each task. Progress is locked until the required interaction is completed.
Action Validation System:
Ensures the correct interaction is performed before allowing progression to the next training stage.
Minimap System:
An in-world minimap that can be opened in VR to help users orient themselves and locate objectives.
Teleport Target System:
Defined teleport points that guide users to specific training areas within the environment.
Feedback System:
Visual, audio, and haptic feedback to confirm successful actions or indicate incorrect interactions.
Interaction Events System:
Event-driven logic based on user actions, hand gestures, proximity, and interaction states.
Animation System:
Includes door opening animations, panel interactions, button presses, UI transitions, and environmental animations.
Visual Effects:
Subtle visual effects and lighting cues used to guide attention and reinforce training feedback.
3D Modeling:
Creation of all environments and interactive props using Maya, optimized for VR performance.
Texturing:
Physically based textures created in Substance Painter and integrated into Unity.
UI Design:
VR-friendly interface elements, icons, and instructional visuals designed in Photoshop.
Lighting:
Implementation of Unity’s lighting system to ensure clarity, comfort, and guidance within the VR training environment.
The project was developed as a VR training prototype for Meta Quest 3 and tested using both controllers and hand tracking, receiving positive feedback for its usability, clarity, and smooth interaction design for first-time VR users.