Meta actualiza sus gafas con IA: desde traducciones en tiempo real hasta Shazam para identificar canciones
Las Ray-Ban Meta incorporan un asistente de IA conversacional que no necesita activación por voz y ofrece traducciones instantáneas entre varios idiomas
Las gafas inteligentes Ray-Ban Meta están dando un salto cualitativo con su nueva actualización de firmware v11. La compañía de Mark Zuckerberg ha integrado potentes funciones de inteligencia artificial que transforman estos dispositivos en auténticos asistentes personales, según anuncia Meta en su blog oficial. Curiosamente, algo que comparten Meta y X es querer ser empresas para todo, aunque el grado de éxito en este aspecto no es el mismo.
En un momento en que Meta parece estar intentando ser más cercana con los usuarios compartiendo recomendaciones de seguridad online, esta actualización llega para intentar integrar más los productos de la tecnológica en su vida cotidiana. Los usuarios en Estados Unidos y Canadá que participan en el programa de acceso anticipado ya pueden disfrutar de estas nuevas características, que incluyen traducción en tiempo real entre inglés y español, francés o italiano.
La IA que ve y entiende tu mundo
El éxito de estas gafas no es casualidad. EssilorLuxottica, propietaria de Ray-Ban, ha confirmado que son el modelo más vendido en el 60% de sus tiendas en Europa, Oriente Medio y África. Aunque no son todo buenas noticias: Meta se enfrenta a problemas legales en España, aunque las demandas de los medios no han impedido que continúe innovando en sus productos.
La gran novedad es el sistema "live AI", que permite mantener conversaciones continuas con el asistente Meta AI sin necesidad de repetir el comando "Hey Meta" cada vez. El asistente puede recordar el contexto de la conversación y responder a preguntas de seguimiento, algo que lo acerca más a una interacción natural. Además, puede analizar en tiempo real lo que el usuario está viendo a través de la cámara frontal de las gafas y responder preguntas sobre el entorno.
La función de traducción en vivo es especialmente práctica: cuando alguien te habla en español, francés o italiano, escucharás la traducción al inglés a través de los altavoces de las gafas, mientras ves la transcripción en tu teléfono. También se ha añadido integración con Shazam, permitiendo identificar canciones con un simple comando de voz.
Meta reconoce que estas funciones, especialmente la IA en vivo y la traducción, pueden no ser perfectas en todas las situaciones. La empresa está comprometida con la mejora continua de la experiencia basándose en el feedback de los usuarios. De cara al futuro, Meta sugiere que el asistente podría anticiparse a las necesidades del usuario ofreciendo sugerencias proactivas, aunque no ha especificado exactamente cómo funcionará esta característica.
Con esta actualización Meta busca colocarse como una pionera en la integración de IA en tiempo real en gafas inteligentes, adelantándose a competidores como Google, que aunque ha anunciado planes similares, aún no ha establecido una fecha de lanzamiento concreta para sus gafas AR con capacidades de IA.
Puedes seguir a Andro4all en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.