El gigante surcoreano de la memoria SK Hynix ha anunciado que ha comenzado la producción en masa del primer HBM3E de 12 capas del mundo, que presenta una capacidad de memoria total de 36 GB, un enorme aumento con respecto a la capacidad anterior de 24 GB en la configuración de 8 capas.
Este nuevo diseño es posible reduciendo el grosor de cada chip DRAM en un 40%, lo que permite apilar más capas manteniendo el mismo tamaño general. La compañía planea iniciar grandes envíos a finales de 2024.
La memoria HBM3E admite un ancho de banda de 9600 MB/s, lo que se traduce en una velocidad efectiva de 1,22 TB/s si se utiliza en una configuración de ocho pilas. Esta optimización lo hace ideal para manejar cargas de trabajo de LLM e IA que requieren alta velocidad y potencia. La capacidad de procesar más datos a velocidades más rápidas permite que los modelos de IA funcionen de manera más eficiente.
Dispositivos Nvidia y AMD
Para su pila de memoria avanzada, SK Hynix utiliza tecnologías de empaquetado innovadoras, incluido el proceso de silicio vía (TSV) y reflujo moldeado (MR-MUF). Estos métodos son fundamentales para mantener la integridad estructural y la disipación de calor necesarias para un funcionamiento estable y de alto rendimiento del nuevo HBM3E. Las mejoras en el rendimiento de la disipación de calor son particularmente importantes para mantener la confiabilidad durante las tareas intensivas de procesamiento de IA.
Además de su mayor velocidad y capacidad, el HBM3E está diseñado para proporcionar una mayor estabilidad, y los procesos de embalaje patentados de SK Hynix garantizan una torsión mínima durante el montaje. La tecnología MR-MUF de la empresa permite una mejor gestión de la presión interna, lo que reduce las posibilidades de fallos mecánicos y garantiza una durabilidad a largo plazo.
El muestreo inicial del producto HBM3E de 12 capas comenzó en marzo de 2024, con NVIDIABlackwell Ultra y AMDSe espera que los aceleradores Instinct MI325X estén entre los primeros en utilizar esta memoria mejorada, aprovechando hasta 288 GB de HBM3E para admitir cálculos complejos de IA. SK Hynix rechazó recientemente un pago inicial de 374 millones de dólares De una empresa desconocida para garantizar que pueda suministrar a Nvidia suficiente HMB para el hardware de IA necesario.
“SK Hynix ha traspasado una vez más los límites tecnológicos, demostrando nuestro liderazgo en la industria en memoria de IA”, dijo Justin Kim, presidente (director de Infra AI) de SK Hynix. “Continuaremos nuestra posición como el principal proveedor de memorias de IA del mundo mientras preparamos constantemente productos de memoria de próxima generación para enfrentar los desafíos de la era de la IA”.