Google El jueves lanzó un nuevo modelo de inteligencia artificial (IA) de la familia Gemini 2.0 que se centra en la visión de futuro. El nuevo modelo de lenguaje grande (LLM), llamado Gemini 2.0 Thinking, aumenta el tiempo de inferencia para permitir que el modelo dedique más tiempo a resolver el problema. El gigante tecnológico con sede en Mountain View afirma que puede resolver tareas complejas de pensamiento, matemáticas y programación. Además, se dice que LLM realiza tareas a mayor velocidad, a pesar del mayor tiempo de procesamiento.
Google lanza un nuevo modelo de inteligencia artificial que se centra en la inferencia
en un correo En Actualmente está disponible en Google AI Studio y los desarrolladores pueden acceder a él a través de la API de Gemini.
Los empleados de Gadgets 360 pudieron probar el modelo de IA y descubrieron que el modelo Gemini, que se centra en el razonamiento avanzado, resuelve con facilidad preguntas complejas que son demasiado difíciles para el modelo 1.5 Flash. En nuestras pruebas, descubrimos que el tiempo de procesamiento típico oscilaba entre tres y siete segundos, lo que supone una mejora significativa con respecto a AbiertoAI o1 cadena que puede tardar hasta 10 segundos en procesar la consulta.
el mellizo Flash Thinking 2.0 también muestra su proceso de pensamiento, donde los usuarios pueden comprobar cómo el modelo de IA llegó al resultado y los pasos que tomó para llegar allí. Descubrimos que LLM pudo encontrar la solución correcta ocho de cada 10 veces. Dado que es un modelo experimental, es de esperar que se produzcan errores.
Aunque Google no reveló detalles sobre la arquitectura del modelo de IA, sí destacó sus limitaciones centradas en los desarrolladores. Publicación de blog. Actualmente, Gemini 2.0 Flash Thinking tiene un límite de entrada de 32.000 tokens. Sólo puede aceptar texto e imágenes como entrada. Solo admite texto como salida y tiene un límite de 8000 tokens. Además, la API no viene con una herramienta integrada como búsqueda o ejecución de código.