El tema de la realidad aumentada (AR) es un compañero constante en todas las conferencias de desarrolladores de Apple. Incluso si ARKit 4 no se convirtió en un discurso de apertura en la WWDC 2020, todavía hay algunos desarrollos interesantes.
Uno de los aspectos más destacados de ARKit 4 es la nueva API de profundidad. Permite al desarrollador obtener información de profundidad muy precisa sobre la señal de video actual. En combinación con la API de geometría de escena ofrecida desde ARKit 3.5 ARKit 4 permite una matriz 3D de valores medidos del entorno inmediato. A cada punto se le asigna un valor que evalúa la seguridad con que ARKit puede clasificarlo.
Todos estos valores medidos juntos proporcionan información de profundidad detallada que tiene como objetivo mejorar la comprensión de una escena y la superposición de objetos reales con objetos virtuales. Los desarrolladores pueden usarlos para reconocer mejor una habitación, evaluar las medidas corporales y mucho más. Sin embargo, un requisito previo para esto es un dispositivo con un sensor LiDAR como el iPad Pro 2020, por lo que no es del todo improbable que el próximo iPhone también esté equipado con él.
Realidad aumentada en Apple: esto es nuevo
Con ARKit 4, Apple también presenta un nuevo tipo de ancla. Estos son puntos de referencia para conectar lo virtual con el mundo real. Con ARKit Location Anchors, los desarrolladores de aplicaciones pueden anclar contenido virtual en el mundo real, por ejemplo, en puntos de interés de una ciudad. De esta manera, la experiencia de realidad aumentada se lleva al aire libre y se pone a disposición de un gran número de usuarios al mismo tiempo. Para ello, en base a los datos geoespaciales (latitud, longitud y altitud) y datosApple Maps crea experiencias de realidad aumentada que están vinculadas a una ubicación específica en el mundo.
Apple llama a este proceso, en el que un iPhone o iPad se localiza en relación con su entorno (óptico) con un mayor grado de precisión, como «localización visual». Lamentablemente, esta función no está (todavía) disponible en Alemania. Hasta ahora, solo se admiten las ciudades de San Francisco, Nueva York, Los Ángeles, Chicago y Miami capturadas por los carros de cámaras de Apple.
El seguimiento facial también se ha ampliado en ARKit 4 y ahora es compatible con la cámara frontal de todos los dispositivos Apple con el chip A12 Bionic y posteriores, incluido el nuevo iPhone SE. Para rastrear hasta tres caras al mismo tiempo, por ejemplo, para memojis o funciones de Snapchat, se requiere un dispositivo con una cámara TrueDepth.
El reconocimiento de huesos de la mano (Vision API, 21 puntos de datos) y varias personas en una escena en su conjunto es posible en tiempo real con iOS 14. Hay algunas sutilezas ocultas aquí. El Vision Framework puede, al igual que ARKit, identificar un total de 19 puntos de medición en un cuerpo humano. Sin embargo, a diferencia de ARKit, Vision Framework proporciona un valor de precisión (qué tan seguro es el marco) y también se puede aplicar a imágenes y videos que están, por ejemplo, en la biblioteca de la cámara.
ARKit 4: no solo para usuarios de iPad Pro
Es posible que ARKit 4 solo lleve rendimiento a la carretera junto con el sensor LiDAR integrado en el nuevo iPad Pro. Pero en unos meses, probablemente también salgan al mercado iPhones equipados con este sensor. Otros dispositivos también están en discusión, como las ominosas gafas AR ( Apple Glass ) solo tienen un sensor LiDAR en lugar de una cámara convencional. La ventaja es obvia: el usuario, si alguna vez existieran estas gafas, no podría realizar grabaciones de video de su entorno. Todo esto, por supuesto, está muy lejos, inicialmente ARKit 4 sigue siendo una gran noticia para iPads y tal vez pronto para iPhones. (megabyte)