Categories
Featured

Micron quiere capturar una porción mayor del mercado HBM de 100 mil millones de dólares con soluciones de memoria vinculada HBM4 y HBM4E para 2026

[ad_1]


  • El gigante estadounidense de los semiconductores revela el lanzamiento del HBM4 en 2026, seguido del HBM4E
  • Probablemente será utilizado por la GPU Rubin R100 de Nvidia y el sucesor de AMD del Instinct MI400x.
  • Micron llega tarde a un mercado muy concurrido liderado por SK Hynix

Micron ha revelado más pasos en su plan para capturar una parte significativa del mercado de memorias de gran ancho de banda en rápida expansión.

El gigante estadounidense de semiconductores reveló durante su convocatoria de resultados del primer trimestre de 2025 que planea presentar productos de memoria HBM4 en 2026, seguidos de HBM4E en 2027/2028 con piezas de 64 GB y 2 TB/s diseñadas para aplicaciones avanzadas de inteligencia artificial y centros de datos.

Sanjay Mehrotra, presidente y director ejecutivo de Micron, destacó la creciente importancia de HBM en los planes de la compañía y afirmó: “El mercado de HBM mostrará un fuerte crecimiento en los próximos años. En 2028, esperamos que el mercado total direccionable de HBM (TAM) aumente crecerá cuatro veces desde el nivel de 16 mil millones de dólares en 2024 y superará los 100 mil millones de dólares en 2030. Nuestra previsión para TAM para HBM en 2030 será mayor “Según nuestra previsión, el tamaño de toda la industria de DRAM, incluida HBM, en el año 2024”.

Hoja de ruta de la memoria Micron

(Crédito de la imagen: Micron)

Llegando a la GPU insignia

[ad_2]

Source Article Link

Categories
Featured

Tesla emerge como un rival sorpresa para AMD y Nvidia en su búsqueda de memoria HBM4 de próxima generación para inteligencia artificial y supercomputadoras.

[ad_1]


  • Los chips HBM4 están preparados para respaldar las ambiciones avanzadas de IA de Tesla
  • Supercomputadora Dojo para integrar los chips HBM4 de alto rendimiento de Tesla
  • Samsung y SK Hynix compiten por pedidos de chips de memoria AI de Tesla

A medida que el mercado de memorias de gran ancho de banda (HBM) sigue creciendo y se espera que alcance los 33.000 millones de dólares en 2027, la competencia entre Samsung y la intensificación de SK Hynix.

Tesla está avivando las llamas ya que, según se informa, se ha puesto en contacto con Samsung y SK Hynix, dos de los mayores fabricantes de chips de memoria de Corea del Sur, para obtener muestras de sus chips HBM4 de próxima generación.

[ad_2]

Source Article Link

Categories
Featured

Micron lanza HBM3E de 36 GB para ponerse al día con Samsung y SK Hynix mientras los competidores se apresuran frenéticamente hacia la próxima gran novedad: HBM4 con sus 16 capas, ancho de banda de 1,65 Tbps y SKU de 48 GB.

[ad_1]

Micron ha lanzado oficialmente su memoria de alto rendimiento HBM3E 12 de 36 GB, lo que marca la entrada de la compañía en el panorama competitivo de las soluciones de memoria de alto rendimiento para… Amnistía Internacional y sistemas basados ​​en datos.

A medida que las cargas de trabajo de IA se vuelven más complejas y consumen más datos, la necesidad de soluciones de memoria energéticamente eficientes se vuelve crítica. El HBM3E de Micron tiene como objetivo lograr este equilibrio, proporcionando velocidades de procesamiento más rápidas sin los altos requisitos de energía asociados típicamente con sistemas tan potentes.

[ad_2]

Source Article Link

Categories
Featured

El archirrival de Samsung revela más detalles sobre la tecnología clave de memoria AI que podría terminar en el supuesto H300 de Nvidia: el HBM4 tendrá la misma densidad de matriz pero 16 capas, un enorme ancho de banda de 1,65 TB/s y estará disponible en una versión modular de 48 GB.

[ad_1]

El gigante surcoreano de la memoria SK Hynix ha hecho una serie de anuncios importantes en los últimos meses, incluidos sus planes para construir… La fábrica de chips más grande del mundo. Y crear un chip de almacenamiento móvil que pueda Haga que los teléfonos y portátiles funcionen más rápido.

La empresa también empezó En cooperación con Taiwan Semiconductor Foundry, TSMCpara desarrollar y producir la próxima generación de memoria de gran ancho de banda, conocida como HBM4, que mejorará significativamente el rendimiento de la informática de alto rendimiento y la inteligencia artificial, y que eventualmente podría ser NVIDIALa supuesta GPU H300.

[ad_2]

Source Article Link

Categories
Featured

Samsung confirms next generation HBM4 memory is in fact Snowbolt — and reveals it plans to flood the market with precious AI memory amidst growing competition with SK Hynix and Micron

[ad_1]

Samsung has revealed it expects to triple its HBM chip production this year.

“Following the third-generation HBM2E and fourth-generation HBM3, which are already in mass production, we plan to produce the 12-layer fifth-generation HBM and 32 gigabit-based 128 GB DDR5 products in large quantities in the first half of the year,” SangJoon Hwang, EVP and Head of DRAM Product and Technology Team at Samsung said during a speech at Memcon 2024.

[ad_2]

Source Article Link