Categories
Featured

Micron quiere capturar una porción mayor del mercado HBM de 100 mil millones de dólares con soluciones de memoria vinculada HBM4 y HBM4E para 2026

[ad_1]


  • El gigante estadounidense de los semiconductores revela el lanzamiento del HBM4 en 2026, seguido del HBM4E
  • Probablemente será utilizado por la GPU Rubin R100 de Nvidia y el sucesor de AMD del Instinct MI400x.
  • Micron llega tarde a un mercado muy concurrido liderado por SK Hynix

Micron ha revelado más pasos en su plan para capturar una parte significativa del mercado de memorias de gran ancho de banda en rápida expansión.

El gigante estadounidense de semiconductores reveló durante su convocatoria de resultados del primer trimestre de 2025 que planea presentar productos de memoria HBM4 en 2026, seguidos de HBM4E en 2027/2028 con piezas de 64 GB y 2 TB/s diseñadas para aplicaciones avanzadas de inteligencia artificial y centros de datos.

Sanjay Mehrotra, presidente y director ejecutivo de Micron, destacó la creciente importancia de HBM en los planes de la compañía y afirmó: “El mercado de HBM mostrará un fuerte crecimiento en los próximos años. En 2028, esperamos que el mercado total direccionable de HBM (TAM) aumente crecerá cuatro veces desde el nivel de 16 mil millones de dólares en 2024 y superará los 100 mil millones de dólares en 2030. Nuestra previsión para TAM para HBM en 2030 será mayor “Según nuestra previsión, el tamaño de toda la industria de DRAM, incluida HBM, en el año 2024”.

Hoja de ruta de la memoria Micron

(Crédito de la imagen: Micron)

Llegando a la GPU insignia

[ad_2]

Source Article Link

Categories
Featured

Una empresa tecnológica de 100 mil millones de dólares de la que probablemente nunca haya oído hablar se está asociando con los fabricantes de memorias más grandes del mundo para producir HBM sobrealimentado

[ad_1]


  • HBM es fundamental para la revolución de la IA porque permite una transferencia de datos ultrarrápida cerca de la GPU
  • Escalar el rendimiento de HBM es difícil si cumple con los protocolos JEDEC
  • Marvell y otros quieren desarrollar una arquitectura HBM personalizada para acelerar su desarrollo

Marvell Technology ha presentado una arquitectura informática HBM personalizada diseñada para aumentar la eficiencia y el rendimiento de las XPU, un componente clave en el panorama de infraestructura de nube en rápida evolución.

La nueva arquitectura fue desarrollada en colaboración con los gigantes de la memoria Micron. Samsungy SK Hynix, para abordar las limitaciones en la integración de memoria tradicional proporcionando soluciones personalizadas para las necesidades de los centros de datos de próxima generación.

[ad_2]

Source Article Link

Categories
Featured

Huawei parece dispuesto a lanzar un nuevo chip de servidor HBM para desafiar a Xeon y Epyc; Sí, esta es la misma memoria que alimenta las GPU AI de Nvidia y AMD.

[ad_1]


  • Huawei puede agregar soporte de HBM al SoC Kunpeng
  • Las pistas apuntan a un sustituto del Kunpeng 920, lanzado en 2019
  • El nuevo SoC de HBM puede apuntar a competidores en el mercado de servidores HPC

Los ingenieros de Huawei tienen se dice Ha lanzado nuevos parches de Linux para habilitar la compatibilidad con controladores para High Bandwidth Memory Management (HBM) en los dispositivos de la compañía brazoSOC de alto rendimiento basado en Kunpeng.

El Kunpeng 920, que debutó en enero de 2019 como la primera CPU para servidor de la compañía, es un procesador de 7 nm con hasta 64 núcleos basado en la arquitectura Armv8.2. Admite ocho canales de memoria DDR4 y tiene una potencia de diseño térmico (TDP) de hasta 180W. Aunque estas especificaciones eran competitivas cuando se introdujeron por primera vez, las cosas han evolucionado significativamente desde entonces.

[ad_2]

Source Article Link

Categories
Featured

After Nvidia, Samsung vows to abandon consumer focus and concentrate on lucrative enterprise market instead — surge in HBM, enterprise SSD, DDR5 server memory chip expected to drive margins

[ad_1]

Nvidia has transformed into an AI superpower, becoming the third most valuable company in the world off the back of it, so it’s perhaps no surprise other tech giants are looking on in envy and shifting their focus to follow suit.

During its recent earnings call, Samsung reported a consolidated operating profit of $4.8 billion in Q1 – a tenfold increase YoY – and company executives revealed a change in focus going forward. 

[ad_2]

Source Article Link

Categories
Featured

Samsung’s archrival strikes crucial partnership with Nvidia’s closest ally to deliver key next-gen memory — SK Hynix teams up with TSMC to advance HBM development but could this move encourage TSMC to become like Intel?

[ad_1]

South Korean memory giant SK Hynix, which recently announced plans for the construction of the world’s largest chip factory, has now announced a major partnership with top Taiwanese semiconductor foundry, TSMC. 

The two firms aim to cement their positions in the fast-growing AI market by developing and producing the next-generation of High Bandwidth Memory, known as HBM4.

[ad_2]

Source Article Link

Categories
Featured

Lenovo unveils first all-AMD AI ‘supercomputer’ flanked with up to 1.5TB of HBM memory and promises drop-in support for the future AMD EPYC CPU — new ThinkSystem has dual EPYC CPUs and 8 Instinct MI300X GPUs

[ad_1]

Lenovo has taken the wraps off its ThinkSystem SR685a V3 server, which it says is an optimal solution for both enterprise private on-prem AI as well as for public AI cloud service providers.

Crafted in tandem with AMD, the server has been specifically engineered to handle the demanding compute needs associated with GenAI and Large Language Models. With fast acceleration, large memory capacity and I/O bandwidth, the new powerhouse can manage sizable data sets used in industries from healthcare and energy to financial services and climate science.

[ad_2]

Source Article Link

Categories
Featured

Another startup is taking on Nvidia using a clever trick — Celestial AI brings DDR5 and HBM together to slash power consumption by 90%, may already be partnering with AMD

[ad_1]

There’s no shortage of startups pushing technology that could one day prove pivotal in AI computing and memory infrastructure. 

Celestial AI, which recently secured $175 million in Series C funding, is looking to commercialize its Photonic Fabric technology which aims to redefine optical interconnects. 

[ad_2]

Source Article Link

Categories
Featured

Startup claims to boost LLM performance using standard memory instead of GPU HBM — but experts remain unconvinced by the numbers despite promising CXL technology

[ad_1]

MemVerge, a provider of software designed to accelerate and optimize data-intensive applications, has partnered with Micron to boost the performance of LLMs using Compute Express Link (CXL) technology. 

The company’s Memory Machine software uses CXL to reduce idle time in GPUs caused by memory loading.

[ad_2]

Source Article Link

Categories
Featured

Samsung’s biggest memory rivals are plotting a tie-up with Kafkaesque implications — SK Hynix and Kioxia could build lucrative HBM chips for Nvidia, AMD and others

[ad_1]

South Korean chipmaker SK Hynix, a key Nvidia supplier, says it has already sold out of its entire 2024 production of stacked high-bandwidth memory DRAMs, crucial for AI processors in data centers. That’s a problem, given just how in demand HBM chips are right now.

However, a solution might have presented itself, as reports say SK Hynix is in talks with Japanese firm Kioxia Holdings to jointly produce HBM chips.

[ad_2]

Source Article Link