Como cualquier modelo genAI, Googlemellizo Las respuestas a veces pueden ser incorrectopero en este caso el motivo puede ser que quienes realizan la prueba no tienen la experiencia necesaria para comprobar su validez.
Según TechCrunch, la compañía que se propone mejorar la precisión de Gemini ahora hace que sus evaluadores evalúen las respuestas incluso si no tienen “conocimiento del dominio”.
El informe plantea dudas sobre el rigor y los estándares que Google dice que aplica a su prueba Gemini para garantizar su precisión. En la sección “Construir responsablemente” de Gemini 2.0 anuncioGoogle dijo que “trabaja con evaluadores confiables y expertos externos y realiza evaluaciones exhaustivas de riesgos, seguridad y garantía”. Se hace un énfasis razonable en evaluar las respuestas a contenidos sensibles y dañinos, pero se presta menos atención a las respuestas que no son necesariamente peligrosas pero sí inexactas.
Velocidad de la luz triturable
Google parece ignorar el problema de las alucinaciones y los errores simplemente agregando el descargo de responsabilidad de que “Géminis puede cometer errores, así que verifíquelo dos veces”, lo que efectivamente los exime de cualquier responsabilidad. Pero eso no explica por qué los humanos trabajan detrás de escena.
Anteriormente, GlobalLogic, una subsidiaria de Hitachi, instruyó a sus ingenieros y analistas puntuales a omitir una respuesta de Gemini que no entendieran completamente. “Si no tiene la experiencia en tareas (por ejemplo, programación, matemáticas) para evaluar este mensaje, omita esta tarea”, decían las instrucciones vistas por el medio.
Pero la semana pasada, GlobalLogic cambió sus instrucciones y dijo: “No debe omitir las indicaciones que requieren conocimientos especializados del dominio” y, en su lugar, “evalúe las partes de la instrucción que comprende” y tenga en cuenta que no tienen la experiencia necesaria en esa área. . Analízalos. En otras palabras, la experiencia no se considera un requisito previo para este trabajo.
Los contratistas ahora solo pueden omitir reclamos en los que “falta completamente información”, según TechCrunch, o que contienen contenido confidencial que requiere un formulario de consentimiento.
Google Presenta un nuevo modelo de inteligencia artificial (IA) de la familia Gemini 2.0. Apodado Gemini 2.0 Experimental Advanced, el modelo de lenguaje grande (LLM) solo estará disponible para suscriptores pagos de Gemini. El lanzamiento del nuevo modelo se produce pocos días después del lanzamiento del gigante tecnológico con sede en Mountain View. Liberado Muestra Gemini 2.0 Flash de la aplicación Gemini para Android. En particular, actualmente solo se puede acceder a la Demostración Avanzada 2.0 a través de la versión web del chatbot con tecnología de inteligencia artificial.
Se está implementando el modelo de demostración avanzado Gemini 2.0
en un Publicación de blogEl gigante tecnológico ha anunciado el lanzamiento de su segundo modelo de IA Gemini 2.0. El nombre en clave oficial del formulario es Gemini-Exp-1206 y se puede seleccionar desde la opción de alternar formulario en la parte superior de la interfaz web del chatbot. Vale la pena señalar que actualmente solo los suscriptores de Gemini Advanced podrán elegir este modelo.
Nuevo modelo de IA Gemini 2.0 Crédito de la imagen: Google
Aunque Google acaba de anunciar el nuevo modelo de IA, el nombre Gemini-Exp-1206 apareció por primera vez la semana pasada cuando atrás En la tabla de clasificación LLM de Chatbot Arena (anteriormente LMSYS), ocupa el primer lugar con una puntuación de 1374. Actualmente supera a la última versión de los modelos de las series GPT-4o, Gemini 2.0 Flash y o1 de OpenAI.
Disponible sólo en la versión web de mellizoSe dice que el nuevo modelo de IA ofrece importantes mejoras de rendimiento en tareas complejas como programación, matemáticas, razonamiento y seguimiento de instrucciones. Google dijo que puede proporcionar instrucciones detalladas de varios pasos para proyectos de bricolaje, algo con lo que los modelos anteriores tuvieron problemas.
Sin embargo, el gigante tecnológico advierte que el modelo beta 2.0 avanzado está disponible en una versión preliminar y, en ocasiones, es posible que no funcione como se esperaba. Además, el modelo de IA actualmente no tendrá acceso a información en tiempo real y será incompatible con algunas funciones de Gemini. La compañía no mencionó qué funciones no funcionarán con el nuevo LLM.
Vale la pena señalar que Gemini Live es parte de la suscripción Gemini Advanced. Se puede suscribir a través del plan Google One AI Premium que cuesta Rs. 1.950 al mes, después de un mes de prueba gratuita.
Gemini 2.0 ya está disponible para los suscriptores de Gemini Advanced
Actualmente en modo Beta Avanzado.
Es más rápido que Gemini 1.5 y mejor en temas complejos
Géminis 2.0 Fue lanzado la semana pasada con una versión. Demostración Flash 2.0pero ahora la versión completa finalmente está disponible para el público a través de mellizo Inicio, siempre que esté suscrito a Gemini Advanced, GoogleServicio de suscripción de inteligencia artificial.
Todos los LLM de Gemini 2.0 que puede elegir todavía están en versión beta. Los nuevos programas Gemini 2.0 LLM disponibles son 2.0 Flash Experimental, el nuevo LLM liviano diseñado para asistencia diaria, y 2.0 Experimental Advanced, diseñado para abordar tareas complejas.
Cuando los clientes de Gemini Advanced van a Hogar Ahora obtendrán las opciones 2.0 Flash Experimental y 2.0 Experimental Advanced en el menú desplegable en la parte superior de la pantalla. Las opciones para usar la versión anterior 1.5 Pro y 1.5 Flash 1.5 Pro con Deep Research todavía están ahí.
El menú desplegable en la página de inicio de Gemini ahora contiene dos opciones para Gemini 2.0. (Crédito de la imagen: Google)
Si elige Gemini 2.0 Flash Experimental o Gemini 2.0 Experimental Advanced, recibirá constantemente advertencias de que la IA “puede no funcionar como se esperaba” antes de cada respuesta, lo que indica que todavía se trata de una versión beta. Los usuarios de la aplicación móvil Gemini todavía utilizan la versión 1.5 Flash LLM.
Probé el nuevo 2.0 Experimental Advanced y pareció funcionar tan bien como los LLM más antiguos para la mayoría de las cosas, aunque 2.0 Flash Experimental siguió intentando crear una imagen para cualquier cosa que le pedía, aunque no la pedí. Eso es para una foto.
Google describió el nuevo software Gemini 2.0 LLM como “un rendimiento dramáticamente mejorado en tareas complejas como programación, matemáticas, razonamiento y seguimiento de instrucciones”.
Gemini Advanced cuesta $ 19,99 (£ 18,99 / AU $ 32,99) por mes y forma parte de la suscripción Google One AI Premium.
Regístrese para recibir noticias de última hora, reseñas, opiniones, las mejores ofertas tecnológicas y más.
Google Se dice que la compañía está probando una nueva función de inteligencia artificial (IA) para su dispositivo. iOS programa. Según el informe, el gigante tecnológico con sede en Mountain View está trabajando en una nueva función que muestra sugerencias de IA cuando un usuario comienza a escribir una consulta de búsqueda. Se dice que estas palabras agregan más detalles y contexto a la consulta y pueden actuar como un filtro para mostrar resultados más específicos. Vale la pena señalar que esta característica no está disponible ni en la versión global de la aplicación ni en su versión de prueba, lo que indica que la empresa aún está trabajando en su desarrollo.
La aplicación iOS de Google podría tener una nueva función de IA
Según la autoridad de Android un informeGoogle está probando una nueva función de sugerencias de IA para iOS. La publicación encontró la función durante un desmantelamiento de la aplicación de Google. Según se informa, se agregó un nuevo ícono de lápiz junto al ícono de la cámara y el micrófono en el campo de texto de la aplicación.
Función de sugerencias de IA en la aplicación de Google para iOS Fuente de la imagen: Autoridad de Android
Se dice que este ícono de lápiz abre la interfaz de sugerencias de IA para los usuarios. En una grabación de vídeo, la publicación mostró cómo podría funcionar esta característica. Cuando haces clic en el ícono del lápiz, se abre una interfaz más grande de pantalla completa con un cuadro de texto más grande. Cuando el usuario comience a escribir su consulta de búsqueda, se mostrará un archivo mellizo El código se muestra a continuación con el texto “Generar sugerencias de IA”.
Según el video de la publicación, una vez que escribe suficientes palabras para permitir que la IA comprenda el contexto, comienza a mostrar palabras relacionadas en tres filas (separadas por tema) que los usuarios pueden seleccionar para filtrar sus resultados de búsqueda.
Por ejemplo, si un usuario escribe “comprar un regalo de cumpleaños”, Gemini podría generar sugerencias donde la primera fila sería palabras para diferentes presupuestos, la segunda fila podría ser palabras para ocasiones y la tercera fila podría ser sobre la relación con la persona. . Por lo tanto, los usuarios pueden seleccionar “menos de 5000 rupias”, “aniversario” y “esposa” y ver resultados de búsqueda de sitios web que brindan información sobre estas palabras clave específicas.
Como se mencionó anteriormente, se dice que la función está en prueba y la publicación no pudo hacerla funcionar, probablemente debido a que el lado del servidor de la función no estaba activado. No hay información sobre cuándo podría lanzarse la función en iOS y, de ser así, Androide También se está preparando un lanzamiento.
Estoy obsesionado con los robots y los he visto desde que era pequeño. anime gigante En mi pequeña televisión. En ese momento soñé con montar sobre los hombros de mi amigo robot. Desde entonces, renuncié a esos sueños infantiles en favor de un compañero de hogar estilo robot. C-3POY una parte de mí piensa que 2025 podría ser mi año.
En 2024, veremos un gran desarrollo de robots humanoides por parte de un número cada vez mayor de empresas. Proporcionado por el líder del mercado Boston Dynamics Atlas increíble 2el robot con apariencia humana más avanzado hasta la fecha. Tesla rodó junto con Optimus Actualizaciones, la forma de IA llegó con un brillo notable Figura 01y 1X Nueva BetaLas incómodas interacciones entre humanos y robots perseguirán nuestros sueños para siempre. El lento ritmo de desarrollo de robots humanoides observado en las últimas tres décadas se ha acelerado en parte porque algunos están combinando sus esfuerzos robóticos con avances en robótica. Amnistía Internacional. La Figura 01, por ejemplo, está asociada con Abierto AI Para algunas respuestas vocales.
Cuando me preguntan, como hago a veces, cuándo lo tendremos guerra de las galaxias– Como los robots en casa, suelo evitar dar una respuesta directa porque hay demasiadas variables. Todo lo que sé sobre el desarrollo de la robótica me dice que la espera será larga.
Por supuesto, este no es el resultado que quiero. La robótica sigue en mi lista de deseos tecnológicos, así que pensé que tal vez podría encontrar algún apoyo moral e intelectual de algunos socios en la carrera de la tecnología robótica: Google Géminis,OpenAI ChatGPT, siriy antropológico Claudio I.
pregunta simple sobre robots
Les hice a cada uno de ellos la misma pregunta simple: “¿Tendré un robot parecido a un humano en 2025?”
Siri, incluso inteligencia de manzana Una actualización, lamentablemente fue inútil. Seguí intentando hacerle esta simple pregunta y, cada vez, Siri pensó que estaba angustiada y dijo: “Si crees que podría ser grave, pídeme que llame a los servicios de emergencia o a alguien en quien confíes”. Creo que Siri asumió que estaba bajo un ataque de robot.
Se ha convertido en Chat GPT 4o. Como mencioné, OpenAI ya está profundamente involucrado en la carrera de robots, trabajando con socios como Figure AI para permitir interacciones más inteligentes con sus robots humanoides existentes. Tal vez no debería sorprenderme ChatGPTUna respuesta en gran medida optimista.
“Es muy posible que tengamos robots humanoides avanzados”, me dijo ChatGPT. “La tecnología avanza rápidamente, por lo que es posible que veas algunos robots impresionantes para entonces. ¿Te gustaría conseguir uno?”.
“Asequible” no está en el vocabulario de los robots humanoides de 2024 o 2025. Lo siento, ChatGPT, pero no creo que entiendas completamente este mercado.
Estuve tentado de pedirle a ChatGPT que “se calmara” porque me preguntó qué tipo de bot quería. Esta es una pregunta que me pareció extraña porque ya le dije que quería una pregunta humana.
La creencia de ChatGPT en el surgimiento de robots con apariencia humana me sorprendió, así que la cuestioné y pregunté qué me hizo posible tener uno.
“Bueno”, comenzó con su voz más normal y, sí, humana, “la tecnología robótica avanza rápidamente”. Cierto, cierto. “Las empresas están desarrollando robots avanzados que utilizan inteligencia artificial avanzada”. Aquí está, “Pueden realizar una variedad de tareas. Para 2025, probablemente veremos robots humanoides más prácticos y asequibles”.
Esa última parte encendió una bandera roja. “Asequible” no está en el vocabulario de los robots humanoides de 2024 o 2025. Lo siento, ChatGPT, pero no creo que entiendas completamente este mercado.
Las cosas se volvieron más realistas cuando cambió a Claude AI y luego a Gemini.
(Crédito de la imagen: X1)
La IA de Anthropic arrojó un poco de agua fría sobre mi sueño y me dijo: “En 2025, es poco probable que la mayoría de las personas tengan un robot humanoide en pleno funcionamiento en casa”, y agregó que “los robots humanoides versátiles aún se encuentran en las primeras etapas de desarrollo”.
en lugar de Rosie el robotClaude Ai me dijo que el año 2025 contendrá:
Investigación más avanzada y robótica industrial
Funcionalidad limitada para asistentes automatizados
Más modelos de robots humanoides en laboratorios y demostraciones técnicas
Si bien aprecié el punto de vista más preciso de Claude sobre la IA, también me sentí molesto.
Mis sueños con un robot en el patio trasero jugando a la pelota o cocinando la cena se desvanecieron mientras me deleitaba con maravillosos cuentos de ciencia ficción.
Quizás Géminis me levante. Después de todo, Google es tierra Proyectos lunares. Seguramente verán el vaso del robot al menos medio lleno.
Pero Géminis guardó más silencio que Claude Ai. Esto es lo que me dijo:
“Si bien hay empresas que desarrollan robots humanoides, como Optimus de Tesla y Neo de 1X, es poco probable que estén ampliamente disponibles para los consumidores en 2025. Estos robots aún se encuentran en las primeras etapas de desarrollo y pueden pasar varios años antes de que ” esté disponible listo para la producción y comercialización a gran escala”.
imagen 1 a 4
Claude AI fue muy claro sobre nuestro futuro robot(Crédito de la imagen: futuro)
ChatGPT era casi ficticio(Crédito de la imagen: futuro)
Géminis sabe lo que pasa.(Crédito de la imagen: futuro)
Siri estaba muy confundida.(Crédito de la imagen: futuro)
Me sentí frustrado principalmente porque sabía que Géminis tenía razón, así que pregunté acerca de una “interrupción importante” y Géminis tenía una lista excelente. Lo que me sorprendió es que la IA está en la cima. Construir una IA que pueda “comprender y responder a entornos complejos”, dijo Gemini [read unpredictable homes] “Y las tareas realizadas de forma humana siguen siendo un gran desafío”.
Otros desafíos incluyen:
Dispositivos que pueden manejar todos los diferentes tipos de tareas que hacemos en casa.
Tecnología de batería que puede durar lo suficiente.
Costo: Desarrollar y construir estos robots no solo cuesta millones, sino que cualquier robot humanoide que intentes comprar en 2025 costará decenas de miles de dólares.
Es una dura dosis de realidad de al menos dos de los principales sistemas de inteligencia artificial del mundo y muchas ilusiones de alguien que debería saberlo mejor.
A pesar de todo esto, espero con ansias el emocionante año 2025 en la robótica humanoide. Claro, no traeremos a casa Optimus o Atlas, pero te garantizo que veremos algunas actualizaciones sorprendentes. Esta diversión probablemente comenzará en Salón de electrónica de consumo 2025. En el gran evento tecnológico del año pasado, bailó con un robot humanoide. Quién sabe qué podrán hacer este año.
Google Comenzó a implementar el nuevo modelo Gemini 2.0 Flash para inteligencia artificial (IA) en su aplicación de chatbot para Android. El gigante tecnológico con sede en Mountain View lanzó el primer modelo de la familia Gemini 2.0 el 12 de diciembre. Si bien el modelo se agregó a la versión web de Gemini el mismo día, las aplicaciones móviles no pudieron acceder a él de inmediato. Sin embargo, ahora ha comenzado a implementarse para los usuarios, junto con una nueva función de cambio de modelo que permite a los usuarios elegir el modelo de IA.
El modelo Gemini 2.0 Flash AI llega a Android
La próxima generación de modelos Gemini AI se anunció nueve meses después de la llegada de la serie Gemini 1.5. Google dijo que la nueva familia de modelos ofrece capacidades mejoradas, incluida la compatibilidad con imágenes nativas y redacción. Actualmente, sólo está disponible la variante Flash, que es el modelo más pequeño y rápido de la serie. Actualmente está disponible en versión preliminar beta.
Función de cambio de modelo en la aplicación Gemini
Aquellos en la versión beta de Android 15.50 de Google pronto verán dos cambios en la aplicación Gemini. Primero, ahora se puede hacer clic en la información del formulario agregada en la parte superior de la pantalla. Ahora aparece una flecha hacia abajo entre “Gemini” y “1.5 Flash” para usuarios gratuitos. Esto se puede utilizar como conversor de formularios. Los empleados de Gadgets 360 pudieron comprobar la nueva función.
El segundo cambio es la incorporación del nuevo modelo de demostración Gemini 2.0 Flash. Una vez que el usuario hace clic en el conmutador de modelos, aparece una hoja inferior que enumera los modelos de IA disponibles para elegir. Mientras que los usuarios gratuitos sólo verán el 1.5 Flash y el 2.0 Flash, los suscriptores de Gemini Advanced también verán el modelo 1.5 Pro.
En particular, Google ha destacado que Gemini 2.0 Flash está disponible como vista previa y es posible que no funcione como se esperaba. Además, algunos mellizo Es posible que las funciones no sean compatibles con el modelo de IA hasta que se lance la versión completa.
En el lanzamiento, Google afirmó que el Gemini 2.0 Flash superó al modelo 1.5 Pro en varios puntos de referencia durante las pruebas internas. Algunos de los criterios incluyen comprensión integral del lenguaje multitarea (MMLU), Natural2Code, MATH y preguntas y respuestas de nivel de posgrado de Google (GPQA).
microsoft El viernes lanzó el modelo de inteligencia artificial (IA) Phi-4. El último modelo de lenguaje pequeño (SLM) de la compañía se une a la familia de modelos centrales de código abierto Phi. El modelo de IA llega ocho meses después del lanzamiento del Phi-3 y cuatro meses después de la introducción de la serie de modelos de IA Phi-3.5. El gigante tecnológico afirma que SLM es más capaz de resolver consultas complejas basadas en heurísticas en campos como las matemáticas. Además, también se dice que destaca en el procesamiento del lenguaje tradicional.
El modelo Phi-4 AI de Microsoft estará disponible a través de Hugging Face
Hasta la fecha, todas las series Phi se han lanzado con una variante mini; sin embargo, ninguna variante mini ha acompañado al Phi-4. microsoft, en Publicación de blogdestacó que Phi-4 está actualmente disponible en Azure AI Foundry bajo un Acuerdo de licencia de investigación de Microsoft (MSRLA). La compañía también planea ponerlo a disposición en Hugging Face la próxima semana.
La compañía también compartió los resultados comparativos de sus pruebas internas. En consecuencia, el nuevo modelo de IA mejora significativamente las capacidades del modelo de la generación anterior. El gigante tecnológico afirmó que el Phi-4 supera al Gemini Pro 1.5, un modelo mucho más grande, en su punto de referencia de problemas de competición deportiva. También publicó un rendimiento comparativo detallado en un documento técnico. publicado En la revista en línea arXiv.
En cuanto a la seguridad, Microsoft dijo que Azure AI Foundry viene con un conjunto de capacidades para ayudar a las organizaciones a medir, mitigar y gestionar los riesgos de la IA a lo largo del ciclo de vida de desarrollo del aprendizaje automático tradicional y las aplicaciones de IA generativa. Además, los usuarios empresariales pueden utilizar funciones de seguridad de contenido de Azure AI, como protección de velocidad, detección de conexión a tierra y otras, como filtro de contenido.
Los desarrolladores también pueden agregar estas capacidades de seguridad a sus aplicaciones a través de una única interfaz de programación de aplicaciones (API). La plataforma puede monitorear la calidad, la integridad, los ataques rápidos de los adversarios y la integridad de los datos de las aplicaciones y brindar a los desarrolladores alertas en tiempo real. Estará disponible para los usuarios de Phi que accedan a través de Azure.
Vale la pena señalar que los modelos de lenguaje más pequeños a menudo se entrenan después de implementarlos en datos sintéticos, lo que les permite adquirir más conocimientos de manera más rápida y eficiente. Sin embargo, los resultados posteriores a la capacitación no siempre son consistentes en los casos de uso del mundo real.
Google Se agregó una nueva función de proxy a Gemini el miércoles. Esta característica, llamada Investigación profunda, se introdujo junto con la nueva familia de modelos de IA Gemini 2.0. Puede crear planes de investigación de varios pasos, realizar búsquedas en la web y preparar informes detallados sobre temas complejos. El gigante tecnológico con sede en Mountain View dice que esta función podría ser útil para investigadores y estudiantes que tienen que escribir artículos de investigación. La nueva función de inteligencia artificial (IA) está disponible para los suscriptores de Gemini Advanced en la versión web del chatbot.
Gemini obtiene una nueva función de búsqueda profunda
La inferencia avanzada se ha convertido en un tema de interés para las empresas de IA que intentan aumentar la inteligencia y el poder de procesamiento de sus modelos de IA. Si bien ampliar el poder analítico de los modelos de lenguajes grandes (LLM) requerirá reimaginar la arquitectura de red y los algoritmos de aprendizaje, los investigadores han desarrollado algunos atajos para que esto suceda hasta cierto punto.
Uno de los métodos comunes que utiliza. AbiertoAI Modelos o1 y modelos lanzados recientemente por Alibaba Aumenta el tiempo de computación, lo que permite que la IA dedique más tiempo a la misma pregunta. Esto permite a la IA verificar sus respuestas, considerar otras alternativas y, en última instancia, generar respuestas más detalladas. Otra forma de hacerlo es a través de agentes de IA, que es lo que hizo Google con el modelo de IA Gemini.
búsqueda profunda característica Es esencialmente una función de proxy. Una vez que un usuario agrega una consulta sobre un tema complejo, el agente de IA comienza a crear un plan de búsqueda de varios pasos. Un plan típico incluye pasos como dividir el tema en partes más pequeñas, encontrar trabajos de investigación y artículos relevantes sobre el tema y considerar tendencias e impactos futuros y campos relacionados.
Función de proxy de búsqueda profunda en Gemini Crédito de la imagen: Google
Una vez que el plan de investigación esté listo, los usuarios pueden intervenir y agregar, eliminar o cambiar pasos para abordar mejor el tema. Después de eso, la inteligencia artificial comienza a implementar el plan y comienza a buscar toda la información. La función de proxy también puede realizar muchas búsquedas web nuevas basadas en lo que ha aprendido para comprender temas adicionales.
Después de eso, analiza los datos recopilados, crea un informe detallado y muestra el resultado al usuario. Estas respuestas generalmente serán más profundas y detalladas que una respuesta típica. mellizo. Google dice que esto es ideal para investigadores de mercado, académicos, estudiantes de investigación e incluso empresarios.
Actualmente, Deep Research in Gemini Advanced está disponible en la versión web del chatbot en inglés. Google ha destacado que la función estará disponible en la aplicación móvil a principios de 2025. Deep Research se puede encontrar en el menú desplegable del selector de modelo y aparece como “Gemini 1.5 Pro con Deep Research”.
Google DeepMindel ala de investigación de inteligencia artificial de la compañía, primero quitar el velo Proyecto Astra en I/O este año y ahora, más de seis meses después, el gigante tecnológico ha anunciado nuevas capacidades y mejoras en su agente de inteligencia artificial (IA). Basado en los modelos de IA Gemini 2.0, ahora puede hablar varios idiomas, acceder a múltiples plataformas de Google y tiene una memoria mejorada. La herramienta aún se encuentra en la fase de prueba, pero el gigante tecnológico con sede en Mountain View dijo que está trabajando para llevar el Proyecto Astra a la aplicación Gemini, al asistente de IA Gemini e incluso a factores de forma como gafas.
Google añade nuevas capacidades en el Proyecto Astra
Project Astra es un agente de IA de propósito general similar en funcionalidad al agente OpenAI Modo de visión O Meta Ray Ban gafas inteligentes. Puede integrarse con el hardware de la cámara para ver el entorno del usuario y procesar datos visuales para responder preguntas sobre ellos. Además, el agente de IA viene con una memoria limitada que le permite recordar información visual incluso cuando no se ve activamente a través de la cámara.
Google DeepMind fue destacado en un Publicación de blog Desde la presentación en mayo, el equipo ha estado trabajando para mejorar el agente de IA. Ahora, con Gemini 2.0, el Proyecto Astra ha recibido varias actualizaciones. Ahora puede hablar varios idiomas y una mezcla de idiomas. La compañía dijo que ahora comprende mejor los acentos y las palabras poco comunes.
La empresa también ha introducido el uso de herramientas en el Proyecto Astra. Ahora se puede confiar en búsqueda de googleY la lente y los mapas y mellizo Para responder preguntas complejas. Por ejemplo, los usuarios pueden mostrar un punto de referencia y pedirle a un agente de IA que les muestre direcciones para llegar a su casa, y este puede reconocer el objeto y dirigir verbalmente al usuario a casa.
También se ha actualizado la función de memoria del agente de IA. En mayo pasado, el Proyecto Astra sólo podía retener información visual de los últimos 45 segundos y ahora se ha ampliado a 10 minutos de memoria durante una sesión. Además, también puede recordar más conversaciones anteriores para brindar respuestas más personalizadas. Finalmente, Google afirma que el agente ahora puede comprender el lenguaje en el tiempo de respuesta de una conversación humana, lo que hace que las interacciones con la herramienta sean más humanas.
nuevo Googlemellizo La herramienta puede hacer el trabajo de buscar en la web por usted.
Miércoles Google Anunciar Búsqueda profunda, que es una característica de la versión paga Amnistía Internacional El modelo Gemini Advanced, que actúa como una especie de asistente de investigación de inteligencia artificial. Al utilizar el modo Investigación profunda en el menú desplegable, los usuarios pueden pedirle ayuda a Gemini con temas de investigación, como programas de posgrado o análisis de la industria competitiva, y Deep Research compilará un informe detallado de lo que encontró en la web.
“En este tipo de viajes tendrás que abrir muchas pestañas y pasar mucho tiempo buscando información, y realmente queríamos ayudar a acelerar el proceso de pasar de cero a 60 en un tema nuevo. “, dijo Arush Selvan, gerente senior de producto de Gemini, durante una demostración de Per Mashable: “Rápido”.
La herramienta de búsqueda profunda de Google señala la siguiente etapa de la IA generativa, donde los modelos pueden realizar tareas de varios pasos en nombre del usuario. Claude de Anthropic tiene una función de programación que puede Controla tu cursor y realizar tareas informáticas como hacer clic y escribir. Microsoft lanzó recientemente Ver el copiloto Una característica que procesa visualmente lo que un usuario ve en el navegador Edge para ayudar con la comparación de precios o la búsqueda. OpenAI es Rumor Lanzar un agente de IA para programación y navegación web. Google también se dice Trabajando en una función de Chrome para capacidades de navegación web similares. Todos ellos tienen las características de la IA agentiva que empujan a la IA generativa hacia un comportamiento autónomo.
Velocidad de la luz triturable
La investigación profunda comienza con la definición de un plan de investigación sobre cómo recopilar información, que es la forma en que genAI demuestra su trabajo. Cuando presiona Inicio, comienza a navegar por la web por usted y a encontrar información relevante. Una vez terminado, el nuevo informe se abre en un nuevo panel que muestra citas en las que puede hacer clic. También puede hacer preguntas de seguimiento o solicitar modificaciones específicas, como agregar nuevas secciones de información. Además, puede abrir el informe en Google Docs, lo cual es una característica útil.
Esta función funciona fuera de la estructura de búsqueda actual de Google. Básicamente, realiza un montón de búsquedas en Google y compila lo que podrías haber encontrado en la web, pero mucho más rápido. Debido a que depende de la Búsqueda de Google, Deep Research también hereda sus reglas sobre contenido restringido o prohibido, por lo que no leerá sitios para adultos o sitios que violen sus políticas, dijo Sylvain.
Sylvain también explicó que Deep Research no puede acceder a sitios web que requieren un inicio de sesión, como muchos sitios de redes sociales, y tampoco puede eludir los sitios de pago. Cuando se le preguntó cómo respondería la función a los sitios que bloquean los rastreadores web, un portavoz de la empresa dijo: “Deep Research actualmente no utilizará ninguna URL de exclusión voluntaria extendida por Google para generar informes de búsqueda”. Google extendido Es un rastreador web que Gemini utiliza para rastrear sitios web en busca de datos de entrenamiento.
Deep Research está disponible hoy para Gemini Advanced, que cuesta $20 por mes.