Una primera prueba del Vision Pro de Apple
El lunes pude echarle un vistazo a lo que Apple vislumbra para el futuro de la computación. Durante casi media hora usé el Vision Pro, de 3500 dólares, el primer visor de alta tecnología de la compañía que será lanzado el próximo año.
Salí con sentimientos encontrados, además de una sensación persistente de escepticismo.
Por un lado, quedé impresionado con la calidad del visor que Apple promueve como el comienzo de una era de “computación espacial”, en la que los datos digitales se mezclan con el mundo físico para desbloquear capacidades nuevas. Por ejemplo, imagínate usar un visor para ensamblar un mueble mientras las instrucciones son proyectadas de manera digital en las piezas o cocinar un platillo mientras la receta se despliega en el rabillo de tu ojo.
El dispositivo de Apple tiene video en alta resolución, controles intuitivos y se ajusta con comodidad, de hecho se sintió mejor que mis experiencias con los visores diseñados en la década pasada por Meta, Magic Leap, Sony y otros.
No obstante, tras usar el visor nuevo para ver fotografías e interactuar con un dinosaurio virtual, también sentí que no ofrecía muchas novedades. Y la experiencia me causó un factor de “repulsión” que nunca había experimentado con un producto de Apple. Comentaré sobre esto más adelante.
Ajuste y control
Empecemos por el principio. Después de que Apple presentó el visor el lunes, en lo que fue su primer lanzamiento importante desde el Apple Watch en 2015, me permitieron probar un modelo de preproducción del Vision Pro. El personal de Apple me llevó a un cuarto privado en la sede de la compañía en Silicon Valley y me senté en un sillón para una demostración.
El Vision Pro, que se asemeja a un par de gafas para esquiar, tiene un cable USB blanco que se conecta a un paquete de baterías plateado que metí en el bolsillo de mis pantalones. Para usarlo giré una perilla al costado del visor con el fin de ajustarlo a la medida de mi rostro y aseguré una tira de velcro sobre mi cabeza.
Luego presioné un botón metálico ubicado en la parte delantera del dispositivo para encenderlo. Después completé el proceso de configuración, el cual implicó ver un punto en movimiento para que el visor pudiera fijar los movimientos de mi ojo. El Vision Pro tiene un conjunto de sensores para rastrear los movimientos de los ojos, los gestos de las manos y los comandos de voz, que son los modos principales de control. Mirar un icono es el equivalente a pasarle por encima el cursor del ratón; para presionar un botón, juntas los dedos pulgar e índice haciendo una pinza rápida que es el equivalente a dar clic con el ratón.
Ese gesto también se usa para agarrar y desplazarse por las aplicaciones de la pantalla. Es intuitivo y menos tosco que usar los controladores de movimiento que suelen venir con los dispositivos de la competencia.
Sin embargo, se me ocurrieron muchas preguntas. ¿Qué otros gestos de la mano reconocería el visor para jugar? ¿Cuán eficientes serán los controles de voz si actualmente la transcripción de voz de Siri en los teléfonos no funciona bien? Apple aún no sabe qué otros gestos serán compatibles, y no me dejó probar los controles de voz.
¿Muchos usos?
Luego llegó el momento de las demostraciones de las aplicaciones que muestran cómo el visor puede enriquecer nuestra vida cotidiana y ayudarnos a mantenernos conectados entre nosotros.
Primero me mostraron cómo ver fotografías y un video de una celebración de cumpleaños en el visor. Pude girar un dial cerca del frente del Vision Pro en sentido contrario a las manecillas del reloj para hacer que los fondos de las fotografías sean más transparentes y así poder ver el mundo real, incluidos los empleados de Apple a mi alrededor pero, al girarlo en dirección contraria la fotografía se vuelve más opaca y podía sumergirme en ella.
Apple también hizo que abriera en el visor una aplicación de meditación que mostraba animaciones en 3D mientras se reproducía música tranquila y una voz guiaba mi respiración. Sin embargo, la meditación no me preparó para lo que venía: una videollamada.
Apareció una ventana pequeña, la notificación de una llamada por FaceTime de una empleada de Apple que también estaba usando el visor. Me quedé viendo fijamente al botón de contestar y junté los dedos para tomar la llamada.
La empleada que me llamó estaba usando una “persona”, un avatar animado en 3D de ella misma que el visor creó usando un escaneo de su rostro. Apple cree que las videoconferencias a través de estas “personas” son una manera más íntima de que la gente se comunique e incluso colabore en el espacio virtual.
Las expresiones faciales de la empleada de Apple parecían reales y los movimientos de su boca se sincronizaban con lo que decía. Sin embargo, debido al renderizado digital de su avatar, con la textura uniforme de su rostro y la falta de sombras, podía darme cuenta de que era falso. Me recordó a los hologramas en video que había visto en películas de ciencia ficción como Minority report: Sentencia previa.
En la sesión de FaceTime, se suponía que la empleada de Apple y yo colaboraríamos para hacer un modelo 3D en una aplicación llamada Freeform. Pero me quedé mirándola sin comprender, pensando en lo que estaba viendo. Después de tres años de estar casi en total aislamiento durante la pandemia, Apple quería que interactuara con lo que en esencia era un video ultrafalso de una persona real. Podía sentir cómo mi cuerpo rechazaba participar. Mi sensación de “repulsión” tal vez haya sido lo que los tecnólogos han descrito desde hace mucho como el “valle inquietante” (o “uncanny valley” en inglés), una sensación de inquietud cuando un humano ve la creación de una máquina que parece demasiado humana.
¿Una hazaña tecnológica? Sí. ¿Una función que querría usar con otras personas todos los días? En el corto plazo, quizás no.
Para concluir la sesión con algo divertido, Apple mostró una simulación de un dinosaurio que se me acercaba cuando estiraba la mano. He visto más de un dinosaurio digital en realidad virtual (casi todos los fabricantes de visores que me han hecho una demostración en los últimos siete años han usado una simulación de Jurassic Park), y eso no me entusiasmó.
Gente real
Después de la demostración, conduje a casa y procesé la experiencia mientras atravesaba el tráfico de la hora pico.
Durante la cena, hablé con mi esposa sobre el Vision Pro. Le comenté que el visor de Apple lucía y se sentía mejor que los de la competencia. Sin embargo, no estaba seguro de que eso importara.
Otros visores de Meta y PlayStation de Sony eran mucho más baratos y bastante poderosos y entretenidos, en especial para jugar videojuegos. Sin embargo, cuando teníamos invitados a cenar y se probaban los visores, perdían el interés después de menos de media hora porque la experiencia era agotadora y se sentían desconectados a nivel social del grupo con el que estaban.
¿Sería relevante que pudieran girar el dial del visor para ver el mundo real mientras lo usan? Sospecho que aún se sentirían aislados, porque quizá serían los únicos en la habitación que usan un visor.
No obstante, lo más importante para mí era la idea de conectar con otros, incluyendo a familiares y colegas, a través de los visores de Apple.
Le dije a mi esposa: “Tu mamá está envejeciendo. Cuando haces FaceTime con ella, ¿preferirías ver su avatar ultrafalso digital o una videollamada de menor calidad en la que sostiene la cámara del teléfono frente a su cara en un ángulo poco favorecedor?”.
“Lo último”, me respondió sin dudar. “Eso es real. Aunque prefiero verla en persona”.
Brian X. Chen es columnista de tecnología de consumo. Reseña productos y escribe Tech Fix, una columna sobre cómo resolver problemas relacionados con la tecnología. Antes de unirse al Times en 2011, reporteó sobre Apple y la industria inalámbrica para Wired. @bxchen