Cuando estás en la realidad virtual, ¿tomas las mismas señales sociales que se aplican en el mundo sin realidad virtual? ¿Puedes decir cuando alguien te está mirando periféricamente?

Depende de lo que entiendas por “alguien”. Otras respuestas a esta pregunta asumen que te estás refiriendo a un personaje generado por computadora (controlado por AI), con ojos que han sido animados para simular las señales sociales de una persona real.

Sin embargo, en la realidad virtual multiusuario, como High Fidelity o AltSpace, los otros personajes son personas reales. En la actualidad, estas representaciones de personajes de esas personas reales se animan utilizando aproximaciones relativamente crudas, principalmente debido a la crudeza de los dispositivos de entrada hombre-máquina en este momento.

Una gran parte de las experiencias sociales realistas de humano a humano se logra a través de la expresividad de los ojos. Hay algunos sistemas que pueden rastrear la orientación de sus ojos mientras usa VR de tal manera que la animación de su ojo en la escena pueda reflejarse con precisión. Esto hace posible el contacto visual en la realidad virtual. Sin embargo, aunque existen HMD de seguimiento ocular integrado (ver FOVE), la mayoría de los HMD de los consumidores aún no tienen capacidades de seguimiento ocular.

En menor grado, el lenguaje corporal también se aproxima crudamente en los sistemas sociales actuales de VR. Gestos como cruzar los brazos, gesticular salvajemente, señalar o agitar son todos muy expresivos, especialmente cuando se combinan con la voz. Al momento de escribir, el único sistema de VR para el consumidor con un seguimiento del cuerpo incorporado es el seguimiento manual del HTC Vive. Todos los demás sistemas de VR no tienen idea de lo que están haciendo sus extremidades, y simplemente usan animaciones preprogramadas en serie (o ninguna animación) para representar el movimiento ocioso e informal de su cuerpo en un entorno social.

Con el HTC Vive, es posible rastrear la posición de la mano de un usuario y, a partir de eso, se utiliza una técnica llamada cinemática inversa para determinar las posibles posiciones del brazo que podrían explicar esas posiciones de la mano. Esto hace que gestos simples como agitar sea posible, pero rastrear mucho más que solo las manos será necesario para representar con precisión las sutilezas del lenguaje corporal.

Hay sistemas de rastreo del cuerpo que tienen la precisión para hacer esto (como la Neurona de Percepción), pero se encuentran en etapas tempranas y, por lo tanto, son costosos, engorrosos y no están ampliamente disponibles.

Se puede lograr un seguimiento más informal del cuerpo utilizando un Microsoft Kinect o con un dispositivo móvil similar, el VicoVR. El seguimiento esquelético a través de este hardware proporciona un marco esquelético sobre el cual se puede animar a cualquier personaje humanoide para expresar todas las cosas que expresamos con nuestros cuerpos en la vida cotidiana.

Si tu puedes.

Por ejemplo, en Half Life 2, las animaciones faciales son realmente buenas, y el contacto visual ha sido muy bien hecho. Al comienzo del juego, hay una secuencia en la que tienes una conversación entre Barney, tú y el científico en la pantalla y, en la realidad virtual, te das cuenta de lo bien hecho que ha estado. Tienen un buen contacto visual cuando hablan con usted, y naturalmente interrumpen el contacto visual con usted cuando alguien más habla. Y como espectador, puedes ver en el rabillo del ojo cuando alguien te está mirando y te sientes obligado a mirar hacia atrás.

Hay una demostración de un vagón del metro que lo hace caminar en un vagón del metro, tener personas que lo miran cuando pasa, y puede ser muy incómodo en los momentos en que siente que es el centro de atención.

Su radar de proximidad funciona bien en la realidad virtual también. En una de mis sesiones de multijugador en VR con Minecraft, uno de mis amigos comenzó a hablarme y, cuando estaba muy cerca de mí, se sentía tan incómodo como en la vida real, ¡especialmente porque su avatar solo llevaba ropa interior! Incluso si los personajes están hechos de cubos, el cerebro social reacciona igual.

Cuando los ojos de los personajes no están animados, la sensación de contacto visual no será tan fuerte como lo es normalmente, pero verás que su cara se mueve en tu dirección y te sentirás “mirando fijamente”.

A2A.

Por supuesto que sí. ¿Y por qué no lo harías?

Pero no creo que moverse en el mundo de la realidad virtual te esté dando la misma sensación de inmersión que estar en la realidad. Por eso, lo más probable es que nunca te sientas “alguien mirándote periféricamente”. Al menos nunca he sentido nada ni remotamente así. Pienso: tu inmersión no es lo suficientemente fuerte para eso …