Ya está disponible el Gemini 1.5 Flash-8B con el coste nominal más bajo de la familia Gemini



Gemini 1.5 Flash-8B, el último participante en mellizo La familia de modelos de inteligencia artificial (IA) ya está disponible de forma generalizada para uso en producción. Google anunció el jueves la disponibilidad general del modelo, destacando que es una versión más pequeña y más rápida del Gemini 1.5 Flash que se presentó en Google I/O. Debido a que es rápido, tiene baja latencia y una generación de resultados más eficiente. Más importante aún, el gigante tecnológico afirmó que el modelo de IA Flash-8B es “el costo por inteligencia más bajo de cualquier modelo Gemini”.

Gemini 1.5 Flash-8B ya está disponible de forma generalizada

En desarrollador Publicación de blogel gigante tecnológico con sede en Mountain View detalló su nuevo modelo de inteligencia artificial. El Gemini 1.5 Flash-8B se derivó del modelo Gemini 1.5 Flash AI, que se centró en un procesamiento más rápido y una generación de resultados más eficiente. La compañía afirma ahora que Google DeepMind ha desarrollado esta versión más pequeña y más rápida de su modelo de IA en los últimos meses.

A pesar de ser un modelo más pequeño, el gigante tecnológico afirma que “casi iguala” el rendimiento del modelo 1.5 Flash en múltiples pruebas. Algunas de estas funciones incluyen chat, transcripción y traducción de lenguaje de contexto de formato largo.

Uno de los principales beneficios del modelo de IA es su rentabilidad. Google Dijo que el Gemini 1.5 Flash-8B ofrecerá el precio nominal más bajo de la familia Gemini. Los desarrolladores tendrán que pagar 0,15 dólares (aproximadamente 12,5 rupias) por millón de tokens de salida, 0,0375 dólares (aproximadamente 3 rupias) por millón de tokens de entrada y 0,01 dólares (aproximadamente 0,8 rupias) por millón de tokens en reclamaciones almacenadas en caché.

See also  Filtraciones sobre el diseño y especificaciones del teléfono Motorola Edge 50 5G; Puede estar disponible en tres opciones de color.

Además, Google está duplicando los límites de velocidad para el modelo 1.5 Flash-8B AI. Ahora, los desarrolladores pueden enviar hasta 4000 solicitudes por minuto (RPM) mientras utilizan este modelo. Al explicar la decisión, el gigante tecnológico afirmó que el modelo es adecuado para tareas simples y de gran volumen. Los desarrolladores que quieran probar el modelo pueden hacerlo a través de Google AI Studio y la API Gemini de forma gratuita.



Source Article Link

Leave a Comment