La realidad aumentada y virtual explica: eso es lo que Apple está planeando, eso es lo que ofrecen las gafas AR

Cada vez surgen más rumores sobre las gafas AR / VR de Apple, damos respuesta a las preguntas más importantes sobre las nuevas tecnologías.

Realidad aumentada

Si hay que creer en los rumores, Apple presentará gafas AR / VR en 2022. Sin embargo, el concepto requiere una explicación, por ejemplo, las gafas AR puras aparecerán mucho más tarde. Intentamos dar respuesta a las preguntas más importantes sobre Realidad Aumentada (AR), Realidad Virtual (VR) y Realidad Mixta (MR).

Preguntas frecuentes AR / VR

¿Qué son la realidad aumentada (AR), la realidad virtual (VR) y la realidad mixta (MR)?

El tema de la realidad aumentada se ha vuelto un poco más tranquilo en el último año. Hace unos años, la tecnología, junto con la realidad virtual, se consideraba el próximo gran salto técnico en el desarrollo y se presentaron numerosas aplicaciones y aplicaciones. Lo que todavía irrita a muchos cuando se trata de realidad virtual y realidad aumentada es la proximidad de los dos términos, por lo que cuando se trata de una aplicación práctica, los límites a veces se difuminan. En general, esta es la razón por la que este tema se suele denominar “realidad mixta”. Con la realidad aumentada, la realidad se expande: con una aplicación de planificación de rutas, por ejemplo, se muestra una flecha direccional en la imagen en vivo de la cámara del teléfono inteligente. O la aplicación de senderismo le dice a través de la cámara qué picos montañosos está viendo actualmente frente a usted.

Entonces, la realidad aumentada se trata más de interactuar con el medio ambiente, la realidad virtual se trata de la llamada inmersión. Pero también hay formas mixtas, por ejemplo, cuando las gafas de realidad virtual pueden mostrar el entorno real.

¿Por qué todavía no hay gafas de realidad virtual de Apple como Facebook Horizon?

Probablemente no será así: en público, Apple siempre ha confiado en la realidad aumentada en lugar de la realidad virtual, por lo que muchos esperaban una solución de realidad aumentada de Apple como las gafas de Google, un concepto completamente diferente a las gafas de realidad virtual como las oculus de Facebook. o HTC Vive. El alto rendimiento gráfico requerido también puede haber sido un problema hasta ahora. Según los rumores, Apple parece estar trabajando ahora en soluciones para ambas tecnologías: gafas AR que muestran información adicional y gafas AR / VR combinadas que pueden crear mundos artificiales completos.

¿Cuál es la situación con el desarrollo de las gafas de Apple?

Las gafas AR, posiblemente llamadas Apple Glass, siguen apareciendo como un rumor. Según el bien informado filtrador Jon Prosser, hay dos dispositivos de Apple: un auricular AR / VR y una versión con lentes sin pulir que se pueden usar como gafas convencionales, y supuestamente por 499 euros. Informó algo similar el analista Ming Chi Kuo, también habló sobre un casco de realidad mixta a mediados de 2022 y gafas de realidad aumentada a partir de 2025, este último incluso más tarde. Las lentes de contacto AR deben planificarse para los años 2030 a 2040. Sin embargo, por el precio de los auriculares, calcula un precio de poco menos de 1000 dólares estadounidenses. Gracias a dos pantallas OLED de Sony, debería poder usarlo como un auricular de realidad virtual y como gafas de realidad aumentada; el mundo exterior debe transmitirse como una imagen de video. Pero solo las gafas AR deberían ser un dispositivo móvil real.

La información sugiere un precio más alto, según el sitio web, las gafas costarán alrededor de 3000 euros y ofrecerán seguimiento ocular y dos pantallas de 8K. Como en las noticias rumoreadas por Prosser, este visor de realidad virtual debería aparecer en 2022, las gafas AR también en 2023.

¿No son las gafas de realidad aumentada un producto nerd para bichos raros?

Esa es la opinión de muchos fanáticos de Apple, y nuestro equipo editorial también está dividido. Sin embargo, muchos también pensaron en el iPhone que no había un grupo objetivo para él. Tal vez las gafas realmente fallen, pero es posible que las gafas de realidad aumentada no reemplacen a las gafas de realidad virtual, sino a las del óptico, como el iPhone.reemplazó el teléfono móvil. Y el grupo objetivo aquí es enorme. Solo en el este de Asia, entre el 80 y el 90 por ciento de los que abandonan la escuela con conocimientos de tecnología usan gafas y, por lo tanto, son compradores potenciales.

¿Qué puedes hacer con él? ¿Resuelve un problema que ni siquiera sé que tengo?

Es menos de la «función asesina» que se supone que debe realizar la RA. Similar a la función de ubicación del teléfono móvil, AR proporcionará la base para numerosas funciones nuevas. Como explicó el desarrollador de chips AR de Apple, Mike Rockwell, en una entrevista con CNET, AR debería ser más una función que se use varias veces al día para las tareas diarias.

¿Por qué son tan importantes las gafas AR?

Actualmente, muchas aplicaciones todavía se basan en la imagen de la cámara de un iPhone o iPad: los usuarios colocan algo en una habitación y luego pueden mirarlo. La imagen de la cámara es una limitación a largo plazo. Especialmente cuando se supone que alguien debe usar una aplicación durante horas, como una aplicación de navegación o una solución de gestión de almacén, las gafas de datos tienen más sentido. Sin embargo, se puede suponer que el iPhone seguirá siendo el típico dispositivo AR por el momento. Después de todo, hay cientos de millones de iPhones y iPads que están habilitados para RA. Gracias a Lidar, la Apple hoy en iPhone 12 Pro (Max) y iPadEl iPhone seguirá siendo el dispositivo AR típico por el momento. Después de todo, hay cientos de millones de iPhones y iPads que están habilitados para RA. Gracias a Lidar, que Apple hoy en iPhone 12 Pro (Max) yLas aplicaciones Pro, AR también se están volviendo cada vez más precisas, y pronto todos los nuevos iPhones estarán equipados con Lidar.

Además, aún no se ha aclarado si las próximas gafas de Apple funcionarán independientemente de un iPhone. El Apple Watch también es independiente solo hasta cierto punto. iPhone funcionará. El Apple Watch también es independiente solo hasta cierto punto.

¿Qué aplicaciones ya ofrecen AR?

Una aplicación típica de AR es la inserción de datos en la imagen de la cámara. Google Maps ha estado haciendo esto de manera muy impresionante desde 2019: estás en una ciudad extraña y la aplicación muestra información de la ruta en la imagen de la cámara; tienes que girar a la derecha para llegar a tu destino, y la aplicación muestra una flecha en la cámara. imagen en el momento adecuado. También se pueden mostrar los números de las casas o los denominados PDI. Hay muchos otros usos.

Aquí hay una descripción general de aplicaciones interesantes.

¿Qué usos útiles para la RA?

No solo hay usos lúdicos, como con Pokémon y las aplicaciones de navegación. La RA se puede utilizar bien para presentaciones de productos, por ejemplo. La RA es particularmente exitosa en la venta de muebles, por ejemplo : una de las aplicaciones de RA más exitosas es la aplicación IKEA, pero también lo es Otto.ofrece una aplicación con función AR. El valor agregado: puede usar una imagen de la cámara para ver cómo se vería una mesa o un sofá en su propio apartamento. Apple también presenta ahora a menudo nuevos productos como objetos de realidad aumentada. La RA ya se utiliza en empresas, por ejemplo, en la gestión de instalaciones.

Otras implementaciones de AR tuvieron menos éxito: alrededor de 2010, la aplicación de bienes raíces Immonet ofreció mostrar propiedades de alquiler cercanas en la imagen de la cámara. Sin embargo, la función se suspendió pronto, el esfuerzo probablemente fue demasiado alto. El uso de RA para instrucciones de funcionamiento, por ejemplo, para reparaciones de automóviles, también fue muy prometedor. Pero al final tampoco se escuchó poco sobre eso.

¿Qué tipo de gafas de realidad aumentada está planeando Facebook?

Facebook también está activo en el campo de la RA. A mediados de marzo, Facebook presentó un concepto de gafas de realidad aumentada que se controlan mediante una pulsera y que aparecerá a finales de este año. Está destinado a reemplazar computadoras y teléfonos inteligentes. Computadora y teléfono inteligente.

¿AR puede reemplazar el mouse y el teclado como formularios de entrada?

Hasta ahora, las funciones AR se han operado principalmente de manera convencional, por ejemplo, a través de la pantalla táctil. Sin embargo, con las gafas AR, se pueden concebir opciones de funcionamiento mucho más innovadoras. Con las gafas de realidad virtual, las entradas del operador pueden activarse mediante el movimiento o el seguimiento ocular, por ejemplo, y Siri también podría integrarse para el control por voz. Para las aplicaciones de realidad virtual, también hay pulseras que detectan los movimientos de los dedos y, por lo tanto, permiten interacciones táctiles.. Apple recibió recientemente una patente para un guante de realidad virtual.

¿Cómo ayuda Apple a los desarrolladores de aplicaciones que quieren usar AR?

Hasta ahora, Apple ve su propia tarea principalmente en facilitar el desarrollo de AR en su propia plataforma. Se utiliza un entorno de desarrollo completo para este propósito y está destinado a simplificar el desarrollo de soluciones AR. Esto incluye marcos como ARKit y RealityKit. Otras herramientas incluyen Reality Composer para convertir modelos 3D. El ARKit 4 permite a los desarrolladores acceder a la información de profundidad del sensor lidar y utilizar el seguimiento facial por primera vez. Sin embargo, los desarrolladores siguen atados a la plataforma iOS, la plataforma competidora ARCore de Google ofrece API para Android e iOS. Android e iOS.

¿Es la aplicación de cinta métrica la única aplicación de realidad aumentada de Apple?

Si ha seguido los numerosos anuncios de los últimos años, la aplicación de cinta métrica de Apple es casi un poco decepcionante. La aplicación se puede utilizar para medir objetos utilizando solo la imagen de la cámara, determine la longitud de una mesa o la distancia entre dos paredes. Después de todo, la cinta métrica virtual también funciona sin los sensores lidar, pero con ellos ahora puede medir los objetos frente a la lente con mucha más precisión. Los tamaños de las personas también se pueden determinar con mayor precisión. Sin embargo, Apple aparentemente se ve a sí misma más como un proveedor de entornos de desarrollo y soporte de hardware. El desarrollo de aplicaciones de realidad aumentada debería ser tarea de los desarrolladores de aplicaciones. Sin embargo, es una pena que la aplicación de mapas de Apple aún no sea compatible con AR.

¿De qué se tratan los sensores como Lidar y Face-ID?

El iPad Pro de 2020 y todos los iPhones desde el iPhone 12 en adelante tienen sensores lidar. Lidar (o LiDAR) significa «Detección y rango de luz», por ejemplo «Detección de luz y medición de habitación». A diferencia del radar, por ejemplo, se utiliza luz láser infrarroja. Con mucha más precisión que con las ondas de radio del radar, se puede registrar la distancia y el movimiento de los objetos con lidar. Lidar ahora se usa, por ejemplo, para controles de velocidad. Lidar emite luz que se dispersa desde los objetos y es detectada por el sistema. Lidar es también la tecnología de elección para los vehículos autónomos, que tienen que medir con precisión qué objetos están en la carretera y junto a ella, a qué velocidad y distancia relativas del vehículo delante de ella. La descripción del producto de Apple muestra iPhone12 tienen sensores lidar. Lidar (o LiDAR) significa «Detección y rango de luz», por ejemplo «Detección de luz y medición de habitación». A diferencia del radar, por ejemplo, se utiliza luz láser infrarroja. Con mucha más precisión que con las ondas de radio del radar, se puede registrar la distancia y el movimiento de los objetos con lidar. Lidar ahora se usa, por ejemplo, para controles de velocidad. Lidar emite luz que se dispersa desde los objetos y es detectada por el sistema. Lidar es también la tecnología de elección para los vehículos autónomos, que tienen que medir con precisión qué objetos están en la carretera y junto a ella, a qué velocidad y distancia relativas del vehículo delante de ella. La descripción del producto de Apple muestra

¿Y qué aporta el lidar?

iOS 14 ofrece funciones de sistema que permiten al procesador A14 calcular una imagen espacial exacta del entorno a partir de los datos obtenidos. Sin embargo, sobre todo, Lidar lleva las capacidades AR del iPhone 12 Pro a un nuevo nivel: los objetos virtuales se pueden construir en entornos reales con mucha más precisión y viceversa: “Cada aplicación ARKit existente recibe automáticamente una ubicación AR inmediata, detección de movimiento mejorada y ocultación de personas. Gracias a la última actualización de ARKit con una nueva API de geometría de escena, los desarrolladores pueden usar el poder del nuevo escáner LiDAR para habilitar escenarios de aplicación nunca antes posibles «. iOS 14 ofrece funciones de sistema que permiten al procesador A14 calcular una imagen espacial exacta del entorno a partir de los datos obtenidos. Sin embargo, sobre todo, Lidar lleva las capacidades AR del iPhone 12 Pro a un nuevo nivel: los objetos virtuales se pueden construir en entornos reales con mucha más precisión y viceversa: “Cada aplicación ARKit existente recibe automáticamente una ubicación AR inmediata, detección de movimiento mejorada y ocultación de personas. Gracias a la última actualización de ARKit con una nueva API de geometría de escena, los desarrolladores pueden usar el poder del nuevo escáner LiDAR para habilitar escenarios de aplicación nunca antes posibles «.

¿Qué tiene esto que ver con Face ID?

Face ID es realmente responsable de desbloquear un dispositivo Apple de forma rápida y segura. Un módulo que consta de un proyector de infrarrojos y una cámara de infrarrojos integrados en el sistema de cámara frontal crea un modelo 3D del rostro para este propósito. Estos datos se pueden utilizar para aplicaciones de RA como memojis; después de todo, estos también pertenecen al área de realidad mixta o realidad aumentada. El sensor también podría usarse para seguimiento ocular, que ya se está probando tiene. Entonces, ya hay un sensor AR en la parte delantera y LIDAR en la parte posterior.

¿Qué tiene esto que ver con la fotografía?

En realidad, nada con AR, pero los sensores lidar utilizados para AR también ayudan con la fotografía, como los sensores IR de Face-ID: solo piense en la fotografía y el desafío de separar el fondo del primer plano, también puede usar LIDAR para separar a una persona de el fondo al tomar fotografías con la cámara principal. Los sistemas duales y triples de las cámaras de las últimas generaciones de iPhone hacen un buen trabajo junto con la CPU, pero es aún mejor con lidar. En un iPhone, el escáner lidar también se utiliza para un enfoque automático más preciso, de modo que es posible tomar fotografías de retratos más nítidas y rápidas en el modo nocturno. Sin embargo, un sensor de este tipo es en realidad «excesivo»: el sensor lidar también está diseñado para aplicaciones futuras. La fotografía y el desafío de separar el fondo del primer plano, LIDAR también se puede utilizar para separar a una persona del fondo al tomar fotos con la cámara principal. Los sistemas duales y triples de las cámaras de las últimas generaciones de iPhone hacen un buen trabajo junto con la CPU, pero es aún mejor con lidar. En un iPhone, el escáner lidar también se utiliza para un enfoque automático más preciso, de modo que es posible tomar fotografías de retratos más nítidas y rápidas en el modo nocturno. Pero un sensor de este tipo es en realidad «excesivo»: el sensor lidar también está diseñado para aplicaciones futuras.

Deja un comentario