Google DeepMindel ala de investigación de inteligencia artificial de la compañía, primero quitar el velo Proyecto Astra en I/O este año y ahora, más de seis meses después, el gigante tecnológico ha anunciado nuevas capacidades y mejoras en su agente de inteligencia artificial (IA). Basado en los modelos de IA Gemini 2.0, ahora puede hablar varios idiomas, acceder a múltiples plataformas de Google y tiene una memoria mejorada. La herramienta aún se encuentra en la fase de prueba, pero el gigante tecnológico con sede en Mountain View dijo que está trabajando para llevar el Proyecto Astra a la aplicación Gemini, al asistente de IA Gemini e incluso a factores de forma como gafas.
Google añade nuevas capacidades en el Proyecto Astra
Project Astra es un agente de IA de propósito general similar en funcionalidad al agente OpenAI Modo de visión O Meta Ray Ban gafas inteligentes. Puede integrarse con el hardware de la cámara para ver el entorno del usuario y procesar datos visuales para responder preguntas sobre ellos. Además, el agente de IA viene con una memoria limitada que le permite recordar información visual incluso cuando no se ve activamente a través de la cámara.
Google DeepMind fue destacado en un Publicación de blog Desde la presentación en mayo, el equipo ha estado trabajando para mejorar el agente de IA. Ahora, con Gemini 2.0, el Proyecto Astra ha recibido varias actualizaciones. Ahora puede hablar varios idiomas y una mezcla de idiomas. La compañía dijo que ahora comprende mejor los acentos y las palabras poco comunes.
La empresa también ha introducido el uso de herramientas en el Proyecto Astra. Ahora se puede confiar en búsqueda de googleY la lente y los mapas y mellizo Para responder preguntas complejas. Por ejemplo, los usuarios pueden mostrar un punto de referencia y pedirle a un agente de IA que les muestre direcciones para llegar a su casa, y este puede reconocer el objeto y dirigir verbalmente al usuario a casa.
También se ha actualizado la función de memoria del agente de IA. En mayo pasado, el Proyecto Astra sólo podía retener información visual de los últimos 45 segundos y ahora se ha ampliado a 10 minutos de memoria durante una sesión. Además, también puede recordar más conversaciones anteriores para brindar respuestas más personalizadas. Finalmente, Google afirma que el agente ahora puede comprender el lenguaje en el tiempo de respuesta de una conversación humana, lo que hace que las interacciones con la herramienta sean más humanas.