Las gafas inteligentes Ray-Ban Meta se han actualizado con IA en vivo y funciones de traducción en vivo



Rayo meta pan Las gafas inteligentes obtuvieron el lunes dos nuevas funciones de inteligencia artificial (IA). El primero es Live AI, que agrega capacidad de procesamiento de video en tiempo real a Meta AI y permite que el chatbot vea continuamente el entorno del usuario y responda preguntas sobre él. El segundo es la traducción en vivo, que permite a la IA traducir voz en tiempo real en los idiomas admitidos. Este último también fue presentado por el CEO Mark Zuckerberg durante Connect 2024. Estos se implementarán primero para los miembros del programa de acceso temprano de Meta en Canadá y EE. UU.

Gigante tecnológico el dice Las dos nuevas funciones de IA que llegarán a las gafas inteligentes Ray-Ban Meta son parte de la actualización del software de gafas inteligentes v11 que ahora se está implementando en los dispositivos elegibles.

Live AI permitirá a Meta AI acceder a las cámaras de las gafas inteligentes y procesar la transmisión de video continuamente en tiempo real. Esto es similar a la función avanzada de voz con visión en ChatGPT que OpenAI lanzó recientemente. La empresa confirmó que durante la sesión, la inteligencia artificial puede ver continuamente lo que ve el usuario y hablar de ello de forma más natural.

Los usuarios podrán hablar con él. Metainteligencia artificial Sin decir la frase de activación “Hey Meta”. Además, los usuarios también pueden hacer preguntas de seguimiento además de hacer referencia a temas discutidos previamente en la sesión, según la empresa.

También pueden cambiar el tema y volver a temas anteriores sin problemas. “En última instancia, Live AI proporcionará, en el momento adecuado, sugerencias útiles incluso antes de que usted las solicite”, agrega la publicación.

See also  Revisión de la temporada 3 de Mirzapur: Ali Fazal brilla en una tercera temporada llena de eventos

La traducción en vivo proporciona traducción de voz en tiempo real entre inglés y español, francés o italiano. Entonces, si un usuario habla con alguien que habla uno de estos tres idiomas, Meta AI puede traducirlo en tiempo real y crear el audio traducido a través de los parlantes abiertos de las gafas. Los usuarios también pueden ver la traducción en su teléfono inteligente como una transcripción.

El gigante tecnológico advierte que es posible que estas nuevas funciones no siempre sean ciertas y que seguirá recibiendo comentarios de los usuarios y mejorando las funciones de IA. Actualmente, no hay información sobre cuándo se lanzarán estas funciones para todos los usuarios a nivel mundial. muerto Ninguna de estas funciones de IA aún no se ha lanzado en la India.



Source Article Link

Leave a Comment