- Trillium estuvo disponible de forma general sólo unos meses después del lanzamiento de la vista previa.
- El potente chip de IA ofrece más de cuatro veces el rendimiento del entrenamiento
- Google lo utiliza para entrenar Gemini 2.0, el modelo avanzado de IA de la compañía
Google Tensor Processing Units (TPU), un acelerador de IA dedicado, ha estado desarrollando TPU durante más de una década, y solo unos meses después de su lanzamiento… Disponible en vista previaanunció que el TPU de sexta generación ha alcanzado disponibilidad general y ahora está disponible para alquiler.
Trillium duplica la capacidad de HBM y el ancho de banda de Interchip Interconnect, y se ha utilizado para entrenar Gemini 2.0, el modelo insignia de IA del gigante tecnológico.
Google informa que ofrece una mejora de hasta 2,5 veces el rendimiento de la capacitación por dólar en comparación con las generaciones anteriores de TPU, lo que la convierte en una opción atractiva para las organizaciones que buscan una infraestructura de IA eficiente.
La supercomputadora de inteligencia artificial de Google Cloud
Trillium ofrece una serie de otras mejoras con respecto a su predecesor, incluido un rendimiento de entrenamiento cuatro veces mayor. La eficiencia energética se ha incrementado en un 67%, mientras que el rendimiento informático máximo por chip se ha multiplicado por 4,7.
Trillium también mejora naturalmente el rendimiento de la inferencia. Las pruebas de Google indican una productividad tres veces mayor para modelos de creación de imágenes como Stable Diffusion XL y casi el doble de productividad para modelos de lenguaje grande en comparación con generaciones anteriores de TPU.
El chip también está optimizado para modelado intensivo, con SparseCore de tercera generación que proporciona un mejor rendimiento para operaciones dinámicas y basadas en datos.
El Trillium TPU también forma la base de la supercomputadora de inteligencia artificial de Google Cloud. Este sistema cuenta con más de 100.000 chips Trillium conectados a través de la red de Júpiter, proporcionando 13 petabit/s de ancho de banda. Integra hardware optimizado, software abierto y marcos de aprendizaje automático populares, incluidos JAX, PyTorch y TensorFlow.
Con Trillium ahora disponible de forma generalizada, los clientes de Google Cloud tienen acceso al mismo hardware utilizado para entrenar Gemini 2.0, lo que hace que la infraestructura de IA de alto rendimiento sea más accesible para una amplia gama de aplicaciones.