Saltar al contenido
computerg

🥇 Apple Pone Un Mapa Del Futuro En IPhone

septiembre 27, 2021

            Apple ha comenzado a implementar sus guías de ciudad de realidad aumentada (AR) de larga data, que usan la cámara y la pantalla de su iPhone para mostrarle a dónde se dirige.  También muestra algunos de los futuros usos que Apple ve para los usos activos de AR.</p><h2>A través del espejo vemos claramente</h2><p>La nueva guía AR está disponible en Londres, Los Ángeles, Nueva York y San Francisco.  Ahora, no estoy demasiado convencido de que la mayoría de las personas se sientan particularmente cómodas agitando sus iPhones de más de € 1,000 en el aire mientras se abren camino a través de las miras.  Aunque estoy seguro de que hay algunas personas que realmente esperan que lo hagan (y no todas trabajan en Apple).

Pero muchos lo intentarán. ¿Qué hace?

Apple anunció planes para introducir una guía de caminata paso a paso en realidad aumentada cuando anunció iOS 15 en la WWDC en junio. La idea es poderosa y funciona así:

  • Lleva tu iPhone.
  • Dirígelo hacia los edificios que te rodean.
  • El iPhone analizará las imágenes que proporciones para reconocer dónde te encuentras.
  • Los mapas generarán una posición muy precisa para proporcionar instrucciones detalladas.

Para ilustrar esto en el Reino Unido, Apple destaca una imagen que muestra la estación Bond Street con una gran flecha apuntando a la derecha a lo largo de Oxford Street. Las palabras debajo de esta imagen le dicen que la estación Marble Arch está a solo 700 metros de distancia.

Todas estas son cosas útiles. Como gran parte de lo que hace Apple, utiliza una gama de pequeñas innovaciones de Apple, en particular (pero no del todo) el motor neuronal en los procesadores de la serie Apple iPhone A. Para reconocer lo que ve la cámara y proporcionar instrucciones precisas, el motor neuronal debe utilizar una gran cantidad de herramientas de aprendizaje automático desarrolladas por Apple. Estos incluyen API de alineación y clasificación de imágenes, API de detección de trayectoria y, opcionalmente, API de reconocimiento de texto, detección de horizonte y detección. Esta es la parte pura del análisis de imágenes.

Esto se combina con la detección de ubicación en el dispositivo Apple, datos de mapas y (supongo) su base de datos existente de escenas callejeras para proporcionar al usuario direcciones casi perfectamente precisas a un destino elegido.

Es una gran ilustración del tipo de cosas que ya puede lograr con el aprendizaje automático en las plataformas de Apple: el modo cinematográfico y el texto en vivo son otros dos excelentes ejemplos recientes. Por supuesto, no es difícil imaginarse apuntando su teléfono a una señal de tráfico mientras usa las direcciones AR de esta manera para recibir traducción de texto instantánea.

John Giannandrea, vicepresidente senior de aprendizaje automático de Apple, habló en 2020 sobre su importancia cuando le dijo a Ars Technica: “Hay un montón de experiencias nuevas que están siendo impulsadas por el aprendizaje automático. Y son cosas como la traducción de idiomas o el dictado en el dispositivo, o nuestras nuevas funciones de salud, como dormir y lavarse las manos, y cosas que hemos publicado en el pasado sobre la salud del corazón y cosas por el estilo. Creo que cada vez hay menos lugares en iOS donde no utilizamos el aprendizaje automático.

La línea de tecnología de cámaras de Apple habla de eso. El hecho de que pueda editar imágenes en modo Retrato o Cinemático incluso después del evento también ilustra esto. Todas estas tecnologías trabajarán juntas para ofrecer las experiencias de Apple Glass que esperamos que la compañía comience a comercializar el próximo año.

Pero eso es solo un vistazo de lo que es posible, ya que Apple continúa aumentando la cantidad de API de aprendizaje automático disponibles que ofrece a los desarrolladores. Las API existentes incluyen las siguientes, todas las cuales se pueden complementar con modelos de IA habilitados para CoreML:

  • API de clasificación, prominencia, alineación y similitud de imágenes.
  • Detección y seguimiento de objetos.
  • Detección de trayectorias y contornos.
  • Detección y reconocimiento de texto.
  • Detección de rostros, seguimiento, puntos de referencia y calidad de captura.
  • Detección del cuerpo humano, pose del cuerpo y pose de la mano.
  • Reconocimiento de animales (gato y perro).
  • Código de barras, rectángulo, detección de horizonte.
  • Flujo óptico para analizar el movimiento de objetos entre imágenes de video.
  • Segmentación de personas.
  • Detección de documentos.
  • Siete API de lenguaje natural, incluido el análisis de sentimientos y la identificación de idiomas.
  • Reconocimiento de voz y clasificación de sonidos.

Apple amplía esta lista con regularidad, pero hay muchas herramientas que los desarrolladores ya pueden usar para mejorar la experiencia de las aplicaciones. Esta breve colección de aplicaciones muestra algunas ideas. Delta Airlines, que recientemente implementó 12,000 iPhones para los asistentes de vuelo, también está creando una aplicación AR para ayudar a la tripulación de cabina.

Trampolines hacia la innovación

Todos pensamos que Apple presentará algún tipo de gafas AR el próximo año.

Cuando lo haga, las nuevas funciones de Maps de Apple seguramente mostrarán algo de su visión de estas cosas. El hecho de que esto también le dé a la empresa la capacidad de utilizar análisis privados en el dispositivo para comparar sus propias colecciones existentes de imágenes de ubicaciones geográficas con las imágenes recopiladas por los usuarios solo puede ayudarlos a desarrollar interacciones ML / imagen cada vez más complejas.

Todos sabemos que cuanto mayor sea el tamaño de la muestra, más probable es que la IA pueda ofrecer buenos resultados en lugar de basura. Si esa es la intención, seguramente Apple debe esperar convencer a sus mil millones de usuarios de que utilicen lo que introduzca para mejorar la precisión de los sistemas de aprendizaje automático que utiliza en Maps. Después de todo, le gusta construir su próximo escalón en la parte posterior del que hizo antes.

¿Quién sabe lo que se avecina en este camino?

Síganme en Twitter o únase a mí en el bar & grill de AppleHolic y en los grupos de discusión de Apple en MeWe.

<p>Copyright © 2021 IDG Communications, Inc.</p>


Source link