Liquid Web lanza un nuevo servicio de alojamiento de GPU para IA y HPC, y los usuarios obtienen acceso a una variedad de GPU de Nvidia (incluidas las H100)

Liquid Web lanza un nuevo servicio de alojamiento de GPU para IA y HPC, y los usuarios obtienen acceso a una variedad de GPU de Nvidia (incluidas las H100)

Liquid Web ha revelado el lanzamiento de su nueva GPU Alojamiento Un servicio diseñado para seguir el ritmo de las crecientes demandas de informática de alto rendimiento (HPC). El nuevo espectáculo será divertido. NVIDIA La compañía confirmó que las unidades de procesamiento de gráficos están destinadas específicamente a desarrolladores que se centran en tareas de … Read more

Dejando a un lado el H100, Huawei quiere que los especialistas chinos utilicen el nuevo chip Ascend AI en lugar del caballo de batalla de Nvidia, pero será difícil

Dejando a un lado el H100, Huawei quiere que los especialistas chinos utilicen el nuevo chip Ascend AI en lugar del caballo de batalla de Nvidia, pero será difícil

Las restricciones estadounidenses a la exportación de hardware avanzado han afectado gravemente las ambiciones de IA de muchas empresas chinas, limitando su acceso a los potentes chips necesarios para entrenar modelos de IA a gran escala y manejar cálculos complejos. Empresas como ByteDance y Alibaba, que dependen de procesadores de alta gama para sus operaciones … Read more

Bang & Olufsen presentó los auriculares Beoplay H100 por 1.549 dólares

Bang & Olufsen presentó los auriculares Beoplay H100 por 1.549 dólares

La marca de lujo Bang & Olufsen es famosa por sus productos. Diseño elegante y Precios igualmente exorbitantesSin embargo, los auriculares y audífonos de la compañía suelen ser más caros que los de la mayoría de los competidores. No astronómicoPero eso cambió con los auriculares insignia con cancelación de ruido de la compañía. Los auriculares … Read more

Meta sheds more light on how it is evolving Llama 3 training — it relies for now on almost 50,000 Nvidia H100 GPU, but how long before Meta switches to its own AI chip?

Meta sheds more light on how it is evolving Llama 3 training — it relies for now on almost 50,000 Nvidia H100 GPU, but how long before Meta switches to its own AI chip?

Meta has unveiled details about its AI training infrastructure, revealing that it currently relies on almost 50,000 Nvidia H100 GPUs to train its open source Llama 3 LLM.  The company says it will have over 350,000 Nvidia H100 GPUs in service by the end of 2024, and the computing power equivalent to nearly 600,000 H100s … Read more