En iOS 16, las aplicaciones pueden desencadenar acciones del mundo real con manos libres – TechCrunch

En iOS 16, las aplicaciones pueden desencadenar acciones del mundo real con manos libres – TechCrunch

Los angeles nueva funcionalidad que llega a iOS 16 permitirá que las aplicaciones activen acciones del mundo actual con manos libres. Eso significa que los usuarios pueden hacer cosas como comenzar a reproducir música con solo entrar a una habitación o encender una bicicleta eléctrica para hacer ejercicio con solo subirse a ella. Apple les dijo a los desarrolladores hoy en una sesión organizada durante l. a. Conferencia Mundial de Desarrolladores (WWDC) de l. a. compañía que estas acciones de manos libres también podrían activarse incluso si el usuario de iOS no está usando activamente l. a. aplicación en ese momento.

Los angeles actualización, que aprovecha Marco de Interacción Cercana de Applepodría conducir a algunos casos de uso interesantes en los que el iPhone se convierte en una forma de interactuar con objetos en el mundo actual, si los desarrolladores y fabricantes de accesorios eligen adoptar l. a. tecnología.

Durante l. a. sesión, Apple explicó cómo las aplicaciones actuales pueden conectarse e intercambiar datos con accesorios Bluetooth LE incluso mientras se ejecutan en segundo plano. En iOS 16, sin embargo, las aplicaciones podrán iniciar una sesión de Interacción cercana con un accesorio Bluetooth LE que también admita Extremely Wideband en segundo plano.

En relación con esto, Apple actualizó l. a. especificación para que los fabricantes de accesorios admitan estas nuevas sesiones en segundo plano.

Esto allana el camino para un futuro en el que l. a. línea entre las aplicaciones y el mundo físico se difumina, pero queda por ver si los fabricantes de dispositivos y aplicaciones de terceros eligen utilizar l. a. funcionalidad.

Los angeles nueva característica es parte de una actualización más amplia del marco de interacción cercana de Apple, que fue el tema central de l. a. sesión de desarrolladores.

Presentado en WWDC 2020 con iOS 14, este marco permite a los desarrolladores de aplicaciones de terceros aprovechar el chip U1 o Extremely Wideband (UWB) en dispositivos iPhone 11 y posteriores, Apple Watch y otros accesorios de terceros. es lo que hoy potestades las capacidades de búsqueda de precisión que ofrece AirTag de Apple, que permite a los usuarios de iPhone abre la aplicación “Buscar mi” para ser guiado a l. a. ubicación precisa de su AirTag usando flechas direccionales en pantalla junto con otra guía que le permite saber qué tan lejos está del AirTag o si el AirTag podría estar ubicado en un piso diferente.

Con iOS 16, los desarrolladores de terceros podrán crear aplicaciones que hacen casi lo mismo, gracias a una nueva capacidad que les permitirá integrar ARKit, el package de herramientas para desarrolladores de realidad aumentada de Apple, con el marco de interacción cercana.

Esto permitirá a los desarrolladores aprovechar l. a. trayectoria del dispositivo calculada desde ARKit, por lo que sus dispositivos también pueden guiar de manera inteligente a un usuario a un elemento extraviado u otro objeto con el que el usuario quiera interactuar, según l. a. funcionalidad de l. a. aplicación. Al aprovechar ARKit, los desarrolladores obtendrán información direccional y de distancia más consistente que si estuvieran usando solo l. a. interacción cercana.

Sin embargo, l. a. funcionalidad no tiene que usarse solo para accesorios similares a AirTag fabricados por terceros. Apple hizo una demostración de otro caso de uso en el que un museo podría usar accesorios de banda ultraancha para guiar a los visitantes a través de sus exhibiciones, por ejemplo.

Además, esta función se puede usar para superponer flechas direccionales u otros objetos AR sobre l. a. vista del mundo actual de l. a. cámara, ya que ayuda a guiar a los usuarios al objeto o accesorio de banda ultraancha. Continuando con l. a. demostración, Apple mostró brevemente cómo podrían aparecer burbujas AR rojas en l. a. pantalla de l. a. aplicación en l. a. parte awesome de l. a. vista de l. a. cámara para señalar el camino a seguir.

A más largo plazo, esta funcionalidad sienta las bases para los rumores de gafas inteligentes de realidad mixta de Apple, donde, presumiblemente, las aplicaciones basadas en AR serían fundamentales para l. a. experiencia.

Los angeles funcionalidad actualizada se está implementando para los probadores beta de l. a. actualización del device iOS 16 que llegará al público en common a finales de este año.

Lea más sobre WWDC 2022 en TechCrunch