La nueva familia de smartphones de Apple, iPhone 16, introduce la nueva herramienta inteligencia visual que, al estilo de Google Lens, permite obtener información sobre objetos y lugares con solo apuntar con la cámara.
iPhone 16 es una realidad desde este lunes, cuando Apple ha presentado sus nuevos smartphones con el sistema Apple Intelligence, junto con los relojes de la serie Watch 10 y los auriculares AirPods 4.
MIRA: iPhone 16 vs. iPhone 16 Pro Max: ¿cuáles son las principales diferencias entre estos dispositivos?
La nueva serie de teléfonos móviles incluye en un conjunto de herramienta denominado Control de Cámara, que incluirá inteligencia visual, con la que los usuarios podrán “obtener información sobre objetos y lugares” de su alrededor.
El funcionamiento de esta herramienta de inteligencia artificial es similar al de Google Lens, ya que utiliza la cámara para lanzar búsquedas, por ejemplo, para ver los horarios y valoraciones de restaurantes, añadir eventos al calendario desde carteles o identificar razas de perros.
MIRA: Los iPhone 16 llegan con un nuevo botón fotográfico e integración de IA, pero sin mayores sorpresas
Según ha informado Apple en una nota de prensa, inteligencia visual se incorporará el próximo año a Control de Cámara en aquellos países y regiones donde esté disponible el sistema Apple Intelligence.
Asimismo, el Control de Cámara también dará acceso a herramientas de terceros con conocimientos específicos, por ejemplo, para buscar el lugar donde se vende un artículo concreto en Google o resolver problemas con la ayuda de ChatGPT. Apple matiza que los usuarios podrán decidir cuándo quieren usar las herramientas de terceros y qué información comparten.