Google DeepMindel ala de investigación de inteligencia artificial de la compañía, primero quitar el velo Proyecto Astra en I/O este año y ahora, más de seis meses después, el gigante tecnológico ha anunciado nuevas capacidades y mejoras en su agente de inteligencia artificial (IA). Basado en los modelos de IA Gemini 2.0, ahora puede hablar varios idiomas, acceder a múltiples plataformas de Google y tiene una memoria mejorada. La herramienta aún se encuentra en la fase de prueba, pero el gigante tecnológico con sede en Mountain View dijo que está trabajando para llevar el Proyecto Astra a la aplicación Gemini, al asistente de IA Gemini e incluso a factores de forma como gafas.
Google añade nuevas capacidades en el Proyecto Astra
Project Astra es un agente de IA de propósito general similar en funcionalidad al agente OpenAI Modo de visión O Meta Ray Ban gafas inteligentes. Puede integrarse con el hardware de la cámara para ver el entorno del usuario y procesar datos visuales para responder preguntas sobre ellos. Además, el agente de IA viene con una memoria limitada que le permite recordar información visual incluso cuando no se ve activamente a través de la cámara.
Google DeepMind fue destacado en un Publicación de blog Desde la presentación en mayo, el equipo ha estado trabajando para mejorar el agente de IA. Ahora, con Gemini 2.0, el Proyecto Astra ha recibido varias actualizaciones. Ahora puede hablar varios idiomas y una mezcla de idiomas. La compañía dijo que ahora comprende mejor los acentos y las palabras poco comunes.
La empresa también ha introducido el uso de herramientas en el Proyecto Astra. Ahora se puede confiar en búsqueda de googleY la lente y los mapas y mellizo Para responder preguntas complejas. Por ejemplo, los usuarios pueden mostrar un punto de referencia y pedirle a un agente de IA que les muestre direcciones para llegar a su casa, y este puede reconocer el objeto y dirigir verbalmente al usuario a casa.
También se ha actualizado la función de memoria del agente de IA. En mayo pasado, el Proyecto Astra sólo podía retener información visual de los últimos 45 segundos y ahora se ha ampliado a 10 minutos de memoria durante una sesión. Además, también puede recordar más conversaciones anteriores para brindar respuestas más personalizadas. Finalmente, Google afirma que el agente ahora puede comprender el lenguaje en el tiempo de respuesta de una conversación humana, lo que hace que las interacciones con la herramienta sean más humanas.
Casi todos en la industria tecnológica están invirtiendo mucho en IA en este momento. Google Entre las personas más comprometidas con el futuro de la inteligencia artificial. Proyecto Astraexpuesto En Google I/O 2024es una gran parte de eso y eventualmente puede convertirse en una de las herramientas de inteligencia artificial más importantes de Google.
Astra se describe como un “agente de IA universal útil en la vida cotidiana”. Es básicamente algo así como un mashup. Asistente de Google Y Google Géminiscon características adicionales y capacidades superiores para una experiencia de conversación natural.
Aquí le explicaremos todo lo que necesita saber sobre el Proyecto Astra: cómo funciona, qué puede hacer, cuándo podrá obtenerlo y cómo podría moldear el futuro.
¿Qué es el Proyecto Astra?
En cierto modo, el Proyecto Astra no es diferente de los chatbots de IA que ya tenemos: haces una pregunta sobre lo que hay en la imagen, o sobre cómo hacer algo, o pides generar algún texto creativo, y Astra continúa con ello. .
Lo que eleva este proyecto de IA es su funcionalidad multimedia (la forma en que se pueden combinar texto, imágenes, vídeo y audio), la velocidad a la que trabaja el robot y el alcance de la conversación. El objetivo de Google, como se mencionó anteriormente, es crear un “agente de IA universal” que pueda hacer cualquier cosa y entenderlo todo.
El proyecto Astra está en marcha (Crédito de la imagen: Google)
Piense en el robot Hal 9000 existente Kubrick 2001: Una odisea en el espacioO la asistente de Samantha en la película. Ja: Hablar con ellos es como hablar con un humano y no hay mucho que no puedan hacer. (Ambos sistemas artificiales finalmente se volvieron demasiado grandes para que sus creadores los controlaran, pero ignoremos eso por ahora).
El Proyecto Astra fue creado para comprender el contexto y tomar medidas, poder actuar en tiempo real y recordar conversaciones del pasado. Y según las demostraciones que hemos visto hasta ahora, funciona en teléfonos y gafas inteligentes, y funciona con los modelos de IA Gemini de Google, por lo que eventualmente puede ser parte de la aplicación Gemini, en lugar de algo separado e independiente.
Obtenga las mejores ofertas en su bandeja de entrada, además de noticias, reseñas, opiniones, análisis y más del equipo de TechRadar.
¿Cuándo se lanzará el proyecto Astra?
El Proyecto Astra aún se encuentra en sus primeras etapas: esto no es algo que estará disponible para los fanáticos hasta dentro de al menos unos meses. Sin embargo, Google dice que “algunas de estas capacidades de proxy llegarán a los productos de Google, como la aplicación Gemini, a finales de este año”, por lo que parece que las cosas de Astra aparecerán gradualmente en las aplicaciones de Google a medida que avancemos hasta 2024.
cuando dimos Un poco de tiempo práctico con el Proyecto Astra En I/O 2024, estas sesiones se limitaron a cuatro minutos cada una, lo que da una idea de lo lejos que está de ser algo de lo que cualquiera, en cualquier lugar, pueda beneficiarse. Es más, la gama Astra no parecía especialmente portátil y los representantes de Google quisieron señalarla como un prototipo.
Ya hemos probado el Proyecto Astra (Crédito de la imagen: Philip Byrne/Futuro)
En conjunto, tenemos la impresión de que algunos de los trucos del Proyecto Astra que hemos visto en la versión beta podrían aparecer en la aplicación Gemini de Google más temprano que tarde. Mientras tanto, la experiencia Astra completa, tal vez incluyendo algo de hardware personalizado, probablemente no se lanzará hasta 2025 como muy pronto.
Ahora que Google ha compartido qué es el Proyecto Astra y de qué es capaz, probablemente escuchemos mucho más sobre él en los próximos meses. Manten eso en mente ChatGPT Y darle Desarrollador Abierto AI Ocupado Paga grandes promociones por sí solo, y Google no querrá quedarse atrás.
¿Qué puedo hacer con el Proyecto Astra?
Aparece una demostración de Google Astra está trabajando en el teléfono., utilizando la entrada de la cámara y hablando naturalmente con el usuario: se le pide que informe algo en la vista que pueda reproducir sonidos y reconocer al hablante correctamente. Cuando se dibuja una flecha en la pantalla, Astra reconoce y habla sobre el componente del altavoz resaltado por la flecha.
en Otra demostraciónVemos a Astra delineando correctamente el mundo a partir de dibujos en su cuaderno de bocetos. También es capaz de recordar el orden de los elementos de una lista, identificar un vecindario a partir de una imagen, comprender el propósito de las secciones de código que se le muestran y resolver problemas matemáticos escritos.
Hay un gran enfoque en reconocer objetos, gráficos, texto y más a través del sistema de cámara, y al mismo tiempo comprender el habla humana y generar respuestas apropiadas. Esta es la parte multimedia del Proyecto Astra en acción, lo que lo convierte en un paso adelante con respecto a lo que ya tenemos, con mejoras en el almacenamiento en caché, la grabación y el procesamiento central de respuestas en tiempo real.
en Nuestro tiempo práctico con el Proyecto Astra, pudimos hacer que contara una historia basada en las cosas que mostramos en cámara y adaptar la historia a medida que avanzábamos. En el futuro, no es difícil imaginar a Astra aplicando estas inteligencias mientras explora una ciudad de vacaciones, resuelve un problema de física en una pizarra o proporciona información detallada sobre lo que se muestra en un juego de deportes.
¿Qué hardware incluirá el Proyecto Astra?
En las demostraciones del Proyecto Astra que Google ha mostrado hasta ahora, la IA se ejecuta en un teléfono inteligente no especificado y un par de gafas inteligentes no identificadas, lo que sugiere que es posible que no hayamos escuchado lo último de ello. gafas de Google hasta ahora.
Google también ha insinuado que el Proyecto Astra llegará a dispositivos con otros factores de forma. Ya lo hemos mencionado Ja película, y es posible que eventualmente veamos el robot Astra integrado en auriculares inalámbricos (suponiendo que tengan una conexión Wi-Fi lo suficientemente fuerte).
Esperamos ver el Proyecto Astra aparecer eventualmente en los teléfonos Pixel (Crédito de la imagen: Futuro/Philip Byrne)
En el área práctica creada en Google I/O 2024, Astra fue operado por una cámara grande y solo podía trabajar con un conjunto específico de objetos como accesorios. Obviamente, cualquier dispositivo que ejecute las interesantes funciones de Astra necesitará mucha potencia de procesamiento integrada o una conexión muy rápida a la nube para poder continuar la conversación en tiempo real que es el núcleo de la IA.
A medida que pasa el tiempo y la tecnología mejora, estas limitaciones deberían empezar a superarse poco a poco. La próxima vez que escuchemos algo importante sobre el Proyecto Astra puede ser en algún momento por esta época. Lanzamiento del teléfono Google Pixel 9 En los últimos meses de 2024; No hay duda de que Google quiere hacer de este el teléfono inteligente con mayor capacidad de inteligencia artificial hasta el momento.
Antes de probarlo por primera vez. GoogleProyecto Astra: tres veces en Google I/O 2024 – Un representante de Google me pidió que no fuera agresivo. Estaba haciendo preguntas sobre la fecha del último entrenamiento de Astra y cómo podría reaccionar Google ante una orden de registro de los datos de ubicación de Astra (más adelante, lo prometo). Pero no puedes decirme “no seas agresivo” con la IA. Como escritor, editor y creador, la inteligencia artificial es el antagonista… tal vez. No lo sabemos todavía, porque todo esto es muy nuevo. Al final, el Proyecto Astra no dio miedo; No llegará al mercado pronto y solo quería jugar con él y divertirme más.
Project Astra es un proyecto multimedia de inteligencia artificial de Google. Esto significa que conecta diferentes tipos de entradas para crear una respuesta que se siente más contextual que la IA, que utiliza solo un método de entrada a la vez. Utiliza una cámara para ver y escuchar tu voz. Puedes hacer un dibujo e intentará interpretar lo que dibujas. Lo que él te da a cambio es hablar. Simplemente muéstrele el Proyecto Astra, dígale lo que quiere y se comunicará con usted.
En una demostración en Google I/O, el Proyecto Astra consistía en una cámara grande orientada hacia abajo sobre un escritorio. Google ofreció una serie de juegos para usar con nuestras indicaciones. La demostración estaba “limitada” a cuatro opciones, pero la cuarta opción era realmente todos contra todos, por lo que no había límite.
(Crédito de la imagen: Philip Byrne/Futuro)
Juega al juego Proyecto Astra Pictionary. Dibujé y adiviné lo que estaba dibujando. Incluso me explicó su razonamiento y me ofreció pistas. Supuse que estaba dibujando un sol, pero cuando le dije a Astra que se suponía que el centro era negro, adivinó correctamente que había un eclipse solar.
Astra me contó una historia, utilizando los juegos y mis aportaciones como guía. Le mostró un cangrejo a Astra y le pidió una historia al estilo Hemingway. Luego presenté el segundo cangrejo, seguido por el lagarto kaiju, que dije que era el villano. El Proyecto Astra se adaptó a cada nuevo desarrollo sin ningún problema y claramente intentaba contar una historia larga y compleja para disgusto de los cronometradores de Google.
El Proyecto Astra creó una oración homogénea basada en lo que usted proporcionó. Por ejemplo, una baguette bellamente horneada y dorada. No siempre comenzaba con la misma letra que el objeto, pero sus respuestas eran una buena aliteración.
Ofrecí un donut al Proyecto Astra y pedí una oración homófona. Luego le pedí una aliteración con temática de ciencia ficción y ella accedió. Me pediste palabras tontas y entendí lo que querías. Incluso sus seguimientos después de la respuesta fueron aliteraciones. Al parecer, era muy inteligente.
Obtenga las mejores ofertas en su bandeja de entrada, además de noticias, reseñas, opiniones, análisis y más del equipo de TechRadar.
¿Adónde va (y no va) el Proyecto Astra?
El Proyecto Astra tiene mucho que decir. Ojalá tuviera tiempo de escucharla contar toda la historia.
Había límites, pero sentí que estábamos viendo la punta del iceberg. Google solo nos dio cuatro minutos con el Proyecto Astra, por eso seguí regresando. Había opciones limitadas sobre lo que podía hacer el Astra. El ambiente era muy ruidoso, por lo que tuvimos que usar un micrófono para asegurarnos de que el Astra nos escuchara con más claridad que el ruido de fondo.
Google insistió en que solo usáramos los accesorios proporcionados para la entrada, que incluían cangrejos de plástico, un gran trozo de geoda de amatista y algo de comida falsa, entre otras opciones. Pero al final, no fueron las cosas las que se interpusieron en el camino del Proyecto Astra, fue mi imaginación sobre qué pedir.
Por eso volví a ver Proyecto Astra tres veces. Se ha vuelto más divertido y me he vuelto más abierto y expresivo con el programa. En mi tercer pase, no estaba esperando la presentación; Empecé a hablar con Astra de inmediato. No había tiempo que perder y el Proyecto Astra tenía mucho que decir. Ojalá tuviera tiempo de escucharla contar una historia completa porque seguí interrumpiéndola por conveniencia.
El Proyecto Astra no llegará pronto a los teléfonos inteligentes; Es sólo un proyecto de investigación y el equipo parece pequeño. Google no tiene planes de incluir el Proyecto Astra en las próximas Google Glass (si es que existe), al menos no de esta forma. Los representantes de Google dejaron claro que el Proyecto Astra es un prototipo y no parece portátil en su forma actual.
Sin embargo, el concepto del Proyecto Astra sería perfecto. gafas inteligentes. Cuando (¿si?) Google finalmente lance sus gafas AR, estoy seguro de que las huellas digitales del Proyecto Astra estarán en ellas.
¿Será la “memoria” del Proyecto Astra un problema?
Teniendo esto en cuenta, el Proyecto Astra tiene talento cuestionable. En la conferencia magistral de Google I/O, los representantes de Google llevaron el Proyecto Astra a un recorrido por la oficina. Entonces un empleado de Google preguntó a Astra dónde había dejado sus gafas.
Astra dijo que vio sus gafas junto a ella rojas. manzana. Recordé. El Proyecto Astra tiene memoria. La inteligencia artificial lo hizo bien.
Esto inmediatamente generó preocupaciones sobre la privacidad. ¿Qué pasará cuando llegue el FBI? Oh, ¿tu amigo sospechoso estuvo aquí? Disponemos de un diario para ver todo lo que tocó y movió mientras estuvo en tu casa. Todo debería estar disponible en cámara, gracias al Proyecto Astra.
(Crédito de la imagen: Philip Byrne/Futuro)
Sin embargo, no es así como funciona el Proyecto Astra. Podía recordar, pero sólo las cosas que vio durante esa única sesión. Los representantes de Google no dejaron claro qué es la sesión, pero parece estar limitada a un período de tiempo de uno a cuatro minutos. Después de eso, el Proyecto Astra se olvida de todo y pasa al siguiente tema.
El problema es lo que pasa durante esos minutos. El Proyecto Astra no puede calcular su información localmente. La “memoria” del Astra está subida a Google. En la etapa de prototipo, esto no significa mucho. Si esto se convierte en un producto comercial, necesitaremos saber dónde van nuestros datos y quién tiene acceso a ellos.
Para adaptar las gafas inteligentes, el Proyecto Astra deberá cambiar
Meta envía su IA en un dispositivo con un procesador de 1W
Sin embargo, el Proyecto Astra es muy prometedor y estoy emocionado de verlo desarrollarse. A diferencia de la función de reconocimiento visual de IA existente de Meta, que ahora está disponible en… Gafas inteligentes Meta Ray-BanLa versión de Google tiene en cuenta el movimiento y la acción. Examina el contexto y sus resultados parecen más avanzados, incluso en esta etapa inicial.
Por supuesto, el Proyecto Astra es un programa de investigación que ocupa una sala entera, mientras que Meta envía su IA en una máquina alimentada por un procesador de 1 vatio. Hay un largo camino desde el prototipo hasta la producción.
Seguiremos de cerca el proyecto Astra y todo Proyectos de Inteligencia Artificial de Google. Creo firmemente que la próxima evolución de los dispositivos portátiles y la tecnología móvil convergerá en las gafas inteligentes, por lo que cuanto más aprendamos sobre lo que está por venir, más podremos prepararnos e influir en lo que obtengamos.
E/S de Google La sesión magistral de 2024 permitió a la empresa mostrar su impresionante gama de inteligencia artificial (Inteligencia Artificial) Modelos y herramientas en los que llevas un tiempo trabajando. La mayoría de las funciones introducidas aparecerán en vistas previas públicas en los próximos meses. Sin embargo, la tecnología más interesante mostrada en el evento no estará aquí por un tiempo. Desarrollado por Google DeepMindeste nuevo asistente de IA se llamó Proyecto Astra y mostraba interacción de IA basada en visión por computadora en tiempo real.
Project Astra es un modelo de IA que puede realizar tareas muy avanzadas de chatbots existentes. Google Sigue un sistema en el que utiliza los modelos de IA más grandes y potentes para entrenar sus modelos listos para producción. Destacando un ejemplo de un modelo de IA que se está entrenando actualmente, el cofundador y director ejecutivo de Google DeepMind, Demis Hassabis, presentó el proyecto Astra. Al presentarlo, dijo: “Hoy tenemos algunos avances nuevos e interesantes que compartir sobre el futuro de los asistentes de IA que llamamos Proyecto Astra. Hace tiempo que queremos construir un agente de IA universal que pueda ser verdaderamente útil en la vida cotidiana.
Hassabis también enumeró una serie de requisitos que la compañía ha establecido para estos agentes de IA. Necesitan comprender y responder a un entorno complejo y dinámico del mundo real, y necesitan recordar lo que ven para desarrollar el contexto y tomar medidas. Además, también debe ser enseñable y personalizado para que uno pueda aprender nuevas habilidades y tener conversaciones sin demora.
Con esta descripción, el CEO de DeepMind mostró un video de demostración donde se puede ver al usuario sosteniendo un teléfono inteligente con la aplicación de cámara abierta. El usuario habla usando la IA y la IA responde instantáneamente, respondiendo varias consultas basadas en la visión. La IA también pudo utilizar información visual para contextualizar y responder preguntas relevantes que requerían habilidades creativas. Por ejemplo, el usuario le mostró a la IA algunos crayones y le pidió que los describiera con aliteraciones. Sin demora, el chatbot dice: “Los crayones creativos son deliciosamente coloridos. Definitivamente hacen creaciones coloridas.
Pero eso no fue todo. En el vídeo, el usuario señala hacia una ventana a través de la cual se pueden ver algunos edificios y carreteras. Cuando se le pregunta sobre el vecindario, la IA inmediatamente da la respuesta correcta. Esto muestra el poder de procesamiento de visión por computadora del modelo de IA y el enorme conjunto de datos visuales que habría requerido para entrenarlo. Pero quizás la presentación más interesante fue cuando se le preguntó a la IA sobre las gafas del usuario. Ella apareció en la pantalla brevemente durante unos segundos y ya había abandonado la pantalla. Sin embargo, la IA puede recordar su ubicación y guiar al usuario hasta ella.
Project Astra no está disponible en versión preliminar pública o privada. Google todavía está trabajando en el modelo y tiene que descubrir los casos de uso de la función de IA y determinar cómo ponerla a disposición de los usuarios. Esta demostración podría haber sido la hazaña de IA más ridícula hasta el momento, pero el evento de actualización de primavera de OpenAI hace un día eliminó parte del ruido. Durante sus actividades, Abierto AI La presentación de GPT-4o mostró habilidades y sonidos emocionales similares que hicieron que la IA pareciera más humana.
Google también mostró sus novedades modo DJ en música, un generador de música impulsado por inteligencia artificial que permite a los músicos crear bucles y muestras de canciones según indicaciones. (El modo DJ se mostró durante Whimsical and Delightful actuación por el músico Marc Rebelette, quien dirigió la conferencia magistral de I/O).
Desarrollo en investigación
Desde sus humildes comienzos como empresa centrada en las búsquedas, Google sigue siendo el actor más destacado en la industria de las búsquedas (a pesar de algunas características muy buenas, es un poco más… Opciones especiales). Las últimas actualizaciones de IA de Google son Cambio sísmico para su producto principal.
Las nuevas capacidades de reconocimiento contextual ayudan a la Búsqueda de Google a ofrecer resultados más relevantes.
Cortesía de Google
Algunas de las nuevas capacidades incluyen la búsqueda estructurada por IA, que permite resultados de búsqueda más compactos y legibles, así como la capacidad de obtener mejores respuestas a consultas más largas y búsquedas de imágenes.
También hemos visto descripciones generales de IA, que son resúmenes breves que combinan información de múltiples fuentes para responder la pregunta que ingresó en el cuadro de búsqueda. Estos resúmenes aparecen en la parte superior de los resultados, por lo que ni siquiera necesita ir a un sitio web para obtener las respuestas que busca. Estas descripciones generales ya son controvertidas, ya que los editores y los sitios web temen que una búsqueda en Google que responda preguntas sin que el usuario tenga que hacer clic en ningún enlace conduzca a… hechizo de muerte Para los sitios a los que deberías ir longitudes extremas Aparecer en los resultados de búsqueda de Google en primer lugar. Sin embargo, estas descripciones generales recientemente mejoradas de la IA se implementarán para todos en los EE. UU. a partir de hoy.
Una nueva característica llamada Inferencia de varios pasos le permite encontrar múltiples capas de información sobre un tema cuando busca cosas con cierta profundidad contextual. Google utilizó la planificación de un viaje como ejemplo, mostrando cómo la búsqueda en mapas puede ayudar a encontrar hoteles y establecer rutas de transporte público. Luego sugiere restaurantes y ayuda a planificar las comidas para el viaje. Puede profundizar su búsqueda buscando tipos específicos de cocina u opciones vegetarianas. Toda esta información se le presenta de forma organizada.
Búsqueda visual avanzada en Lens.
Cortesía de Google
Finalmente, vimos una demostración rápida de cómo los usuarios confían en Google Lens para responder preguntas sobre cualquier cosa a la que apunten con la cámara. (Sí, esto suena similar a lo que hace el Proyecto Astra, pero esas capacidades están integradas en Lens de una manera ligeramente diferente). La demostración mostraba a una mujer tratando de tocar un tocadiscos “roto”, pero Google determinó que la tecnología del brazo del tocadiscos simplemente necesitaba ser modificado, y proporcionó Tiene algunas opciones para instrucciones en video e instrucciones en texto sobre cómo hacer esto. Incluso identificó correctamente la marca y modelo del tocadiscos a través de la cámara.
Lauren Good de WIRED habló con la jefa de búsqueda de Google, Liz Read, sobre esto Todas las actualizaciones de IA La llegada a la Búsqueda de Google y lo que eso significa para Internet en su conjunto.
Seguridad y proteccion
Detectar fraude en el trabajo.
Foto de : Julián Chocato
Una de las últimas cosas notables que vimos en la presentación fue una nueva función de detección de fraude para Android, que puede escuchar sus llamadas telefónicas y detectar cualquier lenguaje que suene como algo que un estafador podría usar, como pedirle que transfiera dinero a una cuenta diferente. lugar. cuenta. Si se entera de que lo están estafando, colgará y le indicará en pantalla que cuelgue. Google dice que la función se ejecuta en el dispositivo, por lo que sus llamadas telefónicas no van a la nube para su análisis, lo que hace que la función sea más privada. (Consulte también la guía de WIRED para Protégete a ti y a tus seres queridos de llamadas fraudulentas de IA.)
Google también ha ampliado su alcance ID de sintetizador Una herramienta de marca de agua destinada a distinguir medios creados con inteligencia artificial. Esto puede ayudarle a detectar información errónea, deepfakes o mensajes de phishing no deseados. La herramienta deja una marca de agua imperceptible que no se puede ver a simple vista, pero que puede detectarse mediante un software que analiza los datos a nivel de píxeles de la imagen. el Nuevas actualizaciones Hemos ampliado la función para escanear contenido en la aplicación Gemini, en la web y en videos creados con Veo. Google dice que planea lanzar SynthID como herramienta de código abierto a finales de este verano.
el Conferencia Google I/O 2024 El discurso de apertura fue un Festival Gemini repleto, y el director ejecutivo Sundar Pichai tuvo razón al describirlo como su versión de The Eras Tour, específicamente, la “Era Gemini”, en la cima.
Todo el discurso de apertura fue sobre Géminis y la IA. En realidad, Google Lo dijo las últimas 121 veces. Desde la presentación de un asistente futurista de IA llamado “Proyecto Astra” que puede ejecutarse en un teléfono (y quizás algún día en gafas) hasta la integración de Gemini en casi todos los servicios o productos que ofrece la empresa, la IA definitivamente ha sido el gran tema.
Todo eso fue suficiente para derretir las mentes de todos, excepto de los entusiastas más fervientes del LLM, por lo que desglosamos las 7 cosas más importantes que Google reveló y discutió durante su discurso de apertura de I/O 2024.
1. Google abandonó el proyecto Astra, un “agente de inteligencia artificial” para la vida cotidiana
Entonces resulta que Google tiene una respuesta a esta pregunta. OpenAI GPT-4o Y microsoftCopiloto. Proyecto Astraconocido como el “agente de IA” de la vida cotidiana, es básicamente lente de google Con esteroides y se ve muy impresionante, capaz de comprender, razonar y responder a videos y audio en vivo.
En un video grabado en un teléfono Pixel, se ve al usuario caminando por una oficina, proporcionando una transmisión en vivo a la cámara trasera y haciendo preguntas al Astra. Géminis observaba y comprendía las imágenes y al mismo tiempo respondía preguntas.
Se trata de un contexto multimodal y de formato largo en el backend de Gemini, que funciona sobre la marcha para identificar y entregar rápidamente una respuesta. En la demostración, sabía qué parte específica era el hablante e incluso podía identificar un distrito de Londres. También es productora porque rápidamente creó el nombre de una banda para un lindo cachorro junto a un animal de peluche (ver video arriba).
No se lanzará de inmediato, pero los desarrolladores y la prensa como nosotros en TechRadar lo probaremos en I/O 2024. Si bien Google no dio más detalles, hubo un adelanto de las gafas Astra, lo que podría significar que Google Glass puede ser haciendo una reaparición.
Obtenga las mejores ofertas en su bandeja de entrada, además de noticias, reseñas, opiniones, análisis y más del equipo de TechRadar.
Sin embargo, incluso como demostración durante Google I/O, es muy impresionante y potencialmente muy convincente. Puede cargar nuestros teléfonos inteligentes y asistentes existentes de Google e incluso manzana. Además, también muestra las ambiciones reales de Google en el campo de la inteligencia artificial, una herramienta que puede resultar muy útil y que no requiere ningún uso rutinario.
2. Google Photos recibe un útil impulso de IA de Gemini
Realmente quiero saber si este es el hijo real de un empleado de Google o de un Géminis… (Crédito de la imagen: Google)
¿Alguna vez has querido encontrar rápidamente una foto específica que tomaste en algún momento del pasado lejano? Tal vez sea una carta de un ser querido, una fotografía temprana de un perro cuando era cachorro o incluso su matrícula. Bueno, Google está haciendo realidad ese deseo con una importante actualización. imágenes de google Lo que lo combina con Géminis. Esto le da acceso a su biblioteca, le permite buscar en ella y le proporciona fácilmente el resultado que está buscando.
En una demostración en el escenario, Sundar Pichai reveló que puede solicitar su propia matrícula y la aplicación de fotografía le presentará una imagen que la muestra y los números/letras que componen su matrícula. Asimismo, puedes pedir fotografías de la época en que tu hijo aprendió a nadar, así como cualquier otro detalle. Debería facilitar la búsqueda incluso en bibliotecas de fotografías no organizadas.
Google ha llamado a esta función “Preguntar fotos” y la implementará para todos los usuarios en las “próximas semanas”. Es casi seguro que será útil y atraerá a personas que no lo utilizan. imágenes de google Un poco celoso.
3. La tarea de su hijo ahora es mucho más fácil gracias a NotebookLM
(Crédito de la imagen: Google)
Todos los padres conocerán el horror de intentar ayudar a los niños con sus tareas; Si has sabido acerca de estas cosas en el pasado, no es posible que el conocimiento siga latente en tu mente 20 años después. Pero es posible que Google haya facilitado mucho la tarea gracias a una actualización de su aplicación para tomar notas NotebookLM.
NotebookLM ahora tiene acceso a Gemini 1.5 Pro y, según la demostración presentada en I/O 2024, ahora será un mejor maestro que nunca. La demostración mostró a Josh Woodward de Google cargando un cuaderno lleno de notas sobre un tema educativo, en este caso, la ciencia. Con solo presionar un botón, cree un tutorial detallado, con resultados adicionales que incluyen cuestionarios y preguntas frecuentes, todo tomado del material original.
Impresionante, pero estaba a punto de mejorar mucho. Una nueva característica, todavía un prototipo en este momento, fue capaz de generar todo el contenido como audio, creando esencialmente una discusión estilo podcast. Es más, el audio presenta a más de un orador, que habla sobre el tema de forma natural de una manera que sin duda sería más útil que un padre frustrado que intenta jugar al maestro.
Woodward incluso pudo interrumpir y hacer una pregunta, en este caso “Danos un ejemplo sobre baloncesto”, momento en el que la IA cambió de rumbo y ideó metáforas inteligentes para el tema, pero en un contexto accesible. Los padres del equipo de TechRadar están entusiasmados de probar esto.
4. Pronto podrás realizar búsquedas en Google mediante un vídeo.
(Crédito de la imagen: Google)
En una extraña demostración en el escenario utilizando un tocadiscos, Google mostró un nuevo e impresionante truco de búsqueda. Ahora puedes grabar un vídeo, buscar los resultados y, con suerte, obtener una respuesta.
En este caso, era un empleado de Google que se preguntaba cómo utilizar el tocadiscos; Hice un registro fotografiando la unidad en cuestión mientras les preguntaba algo y luego se lo envié. Google ha hecho su magia de búsqueda y ha proporcionado una respuesta de texto que se puede leer en voz alta. Es una forma completamente nueva de investigar, como lente de google En el caso del vídeo, también es claramente diferente de la IA cotidiana del próximo proyecto de Astra, que debe grabarse y luego consultarse en lugar de trabajar en tiempo real.
Sin embargo, es parte de la tecnología y la IA generativa de Gemini combinadas con la Búsqueda de Google, con el objetivo de mantenerte en esa página y facilitar la obtención de respuestas. Antes de esta demostración de búsqueda en video, Google mostró una nueva experiencia generativa para recetas y comidas. Esto le permite buscar algo en lenguaje natural y obtener recetas o incluso recomendaciones de restaurantes en la página de resultados.
En pocas palabras, Google está apostando por la IA generativa en la búsqueda, tanto para los resultados como para las diferentes formas de obtenerlos.
Este mensaje puede incluir efectos cinematográficos, como solicitar una toma temporal o una toma aérea, y Los primeros ejemplares parecen impresionantes. Tampoco tiene que empezar desde cero: cargue un vídeo con entrada de comando y Veo podrá editar el clip para que coincida con su pedido. También existe la opción de agregar máscaras y editar partes específicas del video.
¿Malas noticias? Al igual que Sora, Veo aún no está ampliamente disponible. Google dice que estará disponible para creadores seleccionados a través de VideoFX, una función de sus laboratorios beta, “en las próximas semanas”. Puede que pase algún tiempo hasta que veamos una implementación generalizada, pero Google ha prometido llevar esta función a todos. YouTube Cortos y otras aplicaciones. esto sera todo Adobe Se mueve incómodo en la silla creada por inteligencia artificial.
6. Android recibió un gran impulso de Gemini
(Crédito de la imagen: Google)
Al igual que la función “Círculo para buscar” de Google se encuentra en la parte superior de la aplicación, Gemini ahora está integrado en el núcleo de Android para integrarse con su transmisión. Como se muestra, Gemini ahora puede ver, leer y comprender lo que hay en la pantalla de su teléfono, lo que le permite anticipar preguntas sobre lo que esté viendo.
De este modo, puede obtener el contexto del vídeo que estás viendo, anticipar una solicitud de resumen al ver un PDF largo o prepararte para hacer innumerables preguntas sobre la aplicación que estás usando. Tener IA consciente del contenido integrada en el sistema operativo de un teléfono no es tarea fácil. No es nada malo y puede resultar muy beneficioso.
Junto con la integración Gemini a nivel de sistema, Gemini Nano con multimodalidad se lanzará a finales de este año en dispositivos Pixel. ¿Qué le permitirá? Bueno, eso debería acelerar las cosas, pero la característica más destacada, por ahora, es escuchar llamadas y poder alertarte en tiempo real si se trata de spam. Esto es bastante bueno y se basa en la detección de llamadas, que es una característica de larga data en los teléfonos Pixel. Se espera que sea más rápido y se procese más en el dispositivo en lugar de enviarse a la nube.
7. Google Workspace se volverá más inteligente
(Crédito de la imagen: Google)
Los usuarios del espacio de trabajo son Obtenga un tesoro de integraciones y funciones útiles de Gemini Puede tener un gran impacto en el día a día. Dentro de Mail, gracias al nuevo panel lateral de la izquierda, puedes pedirle a Gemini que resuma todas las conversaciones recientes con uno de tus colegas. Luego, el resultado se resume con puntos que destacan los aspectos más importantes.
Gemini en Google Meet puede brindarle los aspectos más destacados de la reunión o lo que otras personas en la llamada podrían preguntar. Ya no necesitarás tomar notas durante esa llamada, lo que puede resultar útil si es una llamada larga. Dentro de Google Sheets, Gemini puede ayudar a comprender los datos y procesar solicitudes, como retirar una cantidad o un conjunto de datos específicos.
El compañero de equipo virtual “Chip” podría ser el ejemplo más futurista. Puede estar presente en G-chat y ser llamado para diversas tareas o consultas. Aunque estas herramientas llegarán a Workspace, probablemente primero a través de funciones experimentales, la pregunta restante es cuándo llegarán a los clientes habituales de Gmail y Drive. Dado el enfoque de Google de llevar la IA a todos e impulsarla agresivamente a través de las búsquedas, probablemente sea sólo cuestión de tiempo.
no lo esperaba gafas de Google Para hacer un ligero regreso en Google I/O 2024Pero esto se hizo gracias al proyecto Astra.
este GoogleNombre de un nuevo prototipo de agentes de IA, impulsado por mellizo La IA multimodal, que puede comprender entradas de vídeo y voz, reaccionar de forma inteligente a lo que una persona mira activamente y responder consultas relacionadas.
El Proyecto Astra se describe como una “IA universal” que puede ser “realmente útil en la vida cotidiana” y está diseñado para ser proactivo, enseñable y capaz de comprender el lenguaje natural. En un vídeo, Google demostró esto con alguien usando algo similar. Píxel 8 Pro Con Astra AI ejecutándose.
Al apuntar la cámara del teléfono a la habitación, la persona pudo pedirle a Astra que “me avise cuando vea algo haciendo un sonido”, y la IA etiquetó un altavoz que podía ver dentro de la lente de la cámara. A partir de ahí, la persona podía preguntar sobre una parte específica del altavoz, y la IA respondía que la parte en cuestión es un altavoz y trata con altas frecuencias.
Pero Astra hace mucho más que eso: puede identificar un código en la pantalla y explicar lo que está haciendo, y puede identificar dónde está alguien en la ciudad y proporcionar una descripción de esa área. Bueno, cuando se actualiza, también puede crear una oración que rima alrededor de un montón de lápices de colores, al estilo del Dr. Zeus.
Incluso puede recordar dónde dejó un usuario un par de gafas, y la IA recuerda dónde las vio por última vez. Pudo hacer esto último ya que la IA está diseñada para codificar cuadros de video de lo que ve, combinar ese video con entradas de voz y juntarlos en una línea de tiempo de eventos, y almacenar en caché esa información para poder recuperarla rápidamente más tarde. .
Luego, Astra se dirigió a una persona que llevaba “gafas inteligentes” Google Glass y pudo ver que la persona estaba mirando un diagrama de un sistema en una pizarra, y descubrió dónde se podían realizar mejoras cuando se le preguntó al respecto.
Obtenga las mejores ofertas en su bandeja de entrada, además de noticias, reseñas, opiniones, análisis y más del equipo de TechRadar.
Habilidades como esta de repente hacen que Glass parezca realmente útil, en lugar del dispositivo ligeramente espeluznante y posiblemente inútil que era hace unos años; Quizás veamos a Google regresar al campo de las gafas inteligentes a continuación.
El Proyecto Astra puede hacer todo esto gracias al uso de IA multimodal, que en términos simples es una combinación de modelos de redes neuronales que pueden procesar datos y entradas de múltiples fuentes; Considere mezclar información de cámaras y micrófonos con conocimientos con los que la IA ya ha sido entrenada.
Google no ha dicho cuándo el Proyecto Astra se convertirá en producto, ni siquiera en manos de los desarrolladores, pero el director ejecutivo de DeepMind de Google, Demis Hassabis, dijo que “algunas de estas capacidades llegarán a los productos de Google, como la aplicación Gemini, a finales de este año”. Si esto no significa Google Píxel 9que esperamos llegue a finales de este año.
Ahora bien, vale la pena tener en cuenta que el Proyecto Astra se mostró en un vídeo muy interesante, y la realidad de tener estos agentes de IA a bordo es que pueden sufrir latencia. Pero es una mirada prometedora a cómo Google probablemente integrará herramientas de inteligencia artificial realmente útiles en sus productos futuros.
Google Tiene un nuevo agente de inteligencia artificial que puede contarte cosas sobre lo que sucede a tu alrededor. un montón de cosas.
Llamado “Proyecto Astra”, es una herramienta multimedia de inteligencia artificial basada en Gemini que te permite apuntar la cámara de tu teléfono a objetos de la vida real y obtener una descripción hablada de lo que estás mirando.
En una demostración mostrada durante Google I/O el martes, la herramienta apuntó al orador, lo que provocó que parte de él fuera identificado correctamente como orador. Aún más impresionante, la cámara del teléfono reprodujo un fragmento de código en la pantalla de la computadora, y Astra proporcionó una descripción bastante detallada de lo que hace el código.
Finalmente, la persona que estaba probando el Proyecto Astra apuntó su teléfono a la ventana y preguntó: “¿En qué vecindario crees que estoy?”. Después de unos segundos, Pepito respondió: “Al parecer esto es King's Cross en Londres”, con algunos detalles sobre el barrio. Finalmente, se pidió a la herramienta que encontrara un par de gafas extraviadas, y ésta cumplió, especificando exactamente dónde se habían dejado las gafas.
Velocidad de la luz triturable
Quizás en la parte más interesante del vídeo, vemos que estas gafas son en realidad un tipo de gafas inteligentes, que pueden usarse nuevamente para indicarle a Gemini lo que ve el usuario; en este caso, haciendo una sugerencia en un diagrama dibujado en una pizarra. .
Según Demis Hassabis, director ejecutivo de DeepMind en Google, algo como Astra podría estar disponible en el teléfono o en las gafas de una persona. Sin embargo, la compañía no compartió una fecha de lanzamiento, aunque Hassabis dijo que algunas de estas capacidades llegarán a los productos de Google “más adelante este año”.
Vauxhall has announced that it is launching some new mild hybrid options for the Astra and Astra Sports Tourer, this will include a new 1.2-litre petrol engine that produces 136 horsepower and an electric motor that produces 28 horsepower.
The cars come with a six-speed dual-clutch automatic transmission and the hybrid powertrain results in lower fuel consumption of around 19%, they will be available in the Design, GS, and Ultimate trims and pricing starts at £30,025.
The new hybrid powertrain, also available on New Corsa and Grandland, features a lithium-ion battery with a capacity of 0.89kWh which is automatically recharged under certain driving conditions. This is combined with a new generation of 1.2-litre three-cylinder turbocharged petrol engine specifically developed for hybridisation. It produces 136hp at 5,500rpm and maximum torque of 230Nm at 1,750rpm.
The engine is paired to a new electrified six-speed dual clutch automatic transmission that has been designed for hybrid applications. A permanent magnet synchronous electric motor is integrated into the gearbox and produces peak power of 21kW (28hp) and maximum torque of 55Nm.
You can find out more information about the new mild hybrid versions of the Vauxhall Astra and Astra Sports Tourer over at the Vauxhall website at the link below.
Source Vauxhall
Filed Under: Auto News
Latest timeswonderful Deals
Disclosure: Some of our articles include affiliate links. If you buy something through one of these links, timeswonderful may earn an affiliate commission. Learn about our Disclosure Policy.
Vauxhall has announced that the new Vauxhall Astra Sports Tourer Electric is now available to order in the UK and pricing for the car starts at £39,995 on the road. They also revealed that from 2024, every model in their range will be available with a fully electric version.
The new Vauxhall Astra Sports Tourer Electric comes with a range of 256 miles and it features a 54klWh battery and the electric motor produces 156 horsepower, you can see more details below.
The All-New Astra Sports Tourer Electric features a fully electric powertrain powered by a new, more efficient and quieter 115kW (156hp) electric motor producing 270Nm of torque, and a 54kWh battery. A heat pump and a focus on efficiency enables the All-New Astra Sports Tourer Electric to achieve 4.2 miles per kWh (WLTP), resulting in a WLTP-certified range of 256 miles.
The All-New Astra Sports Tourer Electric‘s 54kWh battery is integrated into the chassis below the front and rear seats, resulting in a 31% increase in torsional stiffness compared to a petrol Astra Sports Tourer. Combined with a new rear axle design, the increased stiffness also brings improved handling, while a focus on reducing weight means the All-New Astra Sports Tourer Electric weighs only 68kg more than the Plug-in Hybrid version.
You can find out more information about the new Vauxhall Astra Sports Tourer Electric over at the Vauxhall website at the link below, the car can now be ordered in the UK.
Source Vauxhall
Filed Under: Auto News
Latest timeswonderful Deals
Disclosure: Some of our articles include affiliate links. If you buy something through one of these links, timeswonderful may earn an affiliate commission. Learn about our Disclosure Policy.