Apple vuelve a mover ficha. Según un nuevo informe recogido por TechCrunch, citando a Mark Gurman de Bloomberg, la compañía estaría desarrollando tres nuevos wearables con IA diseñados para darle a Siri algo que hasta ahora no tenía: contexto visual en tiempo real.
La idea no es hacer otro gadget independiente que compita con el iPhone, sino todo lo contrario. Apple quiere que estos dispositivos funcionen como ojos y oídos del ecosistema, enviando información al iPhone para que procese todo a través de Apple Intelligence. Más que reemplazar la pantalla, buscan rodearla.
Gafas inteligentes (sin pantalla)
El proyecto más llamativo sería unas smart glasses con nombre en clave N50. A diferencia de las Apple Vision Pro —voluminosas y claramente orientadas a la computación espacial— estas gafas no tendrían pantalla.
Su planteamiento estaría más alineado con el de las Ray-Ban Meta, con cámaras integradas, micrófonos y altavoces que permitirían interactuar con Siri mediante audio. La diferencia clave es que el procesamiento pesado recaería en el iPhone conectado, lo que ayudaría a mantener un diseño ligero y optimizar la batería.
La función sería sencilla e intuitiva. Mirar algo, hacer una pregunta y recibir una respuesta sin sacar el teléfono del bolsillo. Fotos rápidas, consultas sobre lo que tienes delante o asistencia contextual. Sin display, sin distracciones, todo en segundo plano.
AirPods con cámaras (pero no para hacer fotos)
Sí, suena extraño. Pero el informe habla también de unos AirPods con cámaras infrarrojas de baja resolución. No estarían pensadas para capturar imágenes como tal, sino para aportar datos espaciales y ambientales a la IA. Esto podría abrir la puerta a controles por gestos o mayor conciencia espacial del entorno. De nuevo, el objetivo no es crear un dispositivo autónomo, sino alimentar de información al iPhone.
Un colgante con cámara: minimalismo funcional
El tercer dispositivo sería un pequeño «pendant», del tamaño aproximado de un AirTag, que se llevaría en la ropa o como collar. Su función sería similar a la de las gafas: actuar como sensor visual pasivo. Apple, según el reporte, estaría evitando repetir los errores de otros gadgets de IA independientes, apostando por que todo funcione como accesorio del iPhone y no como sustituto.
Un cambio estratégico en la IA de Apple
Más que meter procesadores cada vez más potentes en nuevos formatos, Apple parece estar planteando una estrategia distinta, la de usar wearables como capas de captura de datos y dejar que el iPhone sea el cerebro.
Con una base instalada masiva de usuarios, el movimiento tiene lógica. En lugar de obligar al público a adoptar un dispositivo radicalmente nuevo, la compañía podría ofrecer puntos de entrada más accesibles, más ligeros y más «llevables» al universo de Apple Intelligence.
Eso sí, no es inminente. Según el informe, la producción de las gafas podría comenzar en diciembre de 2026, con un posible lanzamiento en 2027. Los AirPods con cámara y el colgante seguirían un calendario similar, aunque los planes todavía podrían cambiar.
Por ahora, lo que queda claro es que Apple no solo quiere que le hables a Siri. Quiere que Siri mire contigo. Y eso cambia bastante las reglas del juego.
Sigue toda la información de HIGHXTAR desde Facebook, Twitter o Instagram
Podría interesarte…