Categories
News

Se presenta la arquitectura de inteligencia artificial de Google Titans con la capacidad de resolver problemas de memoria a largo plazo en modelos de inteligencia artificial

[ad_1]

Google Los investigadores dieron a conocer la semana pasada una nueva arquitectura de inteligencia artificial (IA) que puede permitir que los modelos de lenguaje grandes (LLM) recuerden el contexto a largo plazo de eventos y temas. El gigante tecnológico con sede en Mountain View ha publicado un artículo sobre el tema y los investigadores afirman que los modelos de IA entrenados con esta arquitectura mostraron una mayor retención de memoria “similar a la humana”. Vale la pena señalar que Google abandonó las arquitecturas tradicionales de transformadores y redes neuronales recurrentes (RNN) para desarrollar una nueva forma de enseñar a los modelos de inteligencia artificial cómo recordar información contextual.

Los gigantes pueden escalar la ventana contextual de los modelos de IA a más de 2 millones de símbolos

El investigador principal del proyecto, Ali Behrouz. publicar Acerca de la nueva arquitectura en X (anteriormente conocida como Twitter). Afirmó que la nueva arquitectura proporciona memoria descriptiva contextual con atención que enseña a los modelos de IA cómo recordar información en el momento de la prueba.

Según el documento de Google, eso fue publicado En la revista electrónica preimpresa arXiv, la arquitectura Titans puede escalar la ventana de contexto de los modelos de IA a más de dos millones de tokens. La memoria ha sido un problema difícil de resolver para los desarrolladores de IA.

Los humanos recuerdan información y eventos con contexto. Si alguien le pregunta a alguien qué llevaba puesto el fin de semana pasado, podrá recordar información contextual adicional, como asistir a la fiesta de cumpleaños de alguien a quien conoce desde hace 12 años. De esta manera, cuando se le pida que haga un seguimiento si uno se pregunta por qué llevaba una chaqueta marrón y jeans el fin de semana pasado, la persona podrá ponerlo en contexto con toda esta información a corto y largo plazo.

Por otro lado, los modelos de IA suelen utilizar esquemas de recuperación de generación aumentada (RAG), modificados para arquitecturas Transformer y RNN. Utiliza información como nodos neuronales. Entonces, cuando se le hace una pregunta al modelo de IA, accede al nodo específico que contiene la información clave, así como a los nodos cercanos que pueden contener información adicional o relacionada. Sin embargo, una vez resuelta la consulta, la información se elimina del sistema para ahorrar potencia de procesamiento.

Sin embargo, esto tiene dos desventajas. En primer lugar, el modelo de IA no puede recordar información a largo plazo. Si alguien quisiera hacer una pregunta de seguimiento una vez finalizada la sesión, tendría que proporcionar el contexto completo nuevamente (a diferencia de cómo trabajan los humanos). En segundo lugar, los modelos de IA no logran recuperar información que tenga un contexto a largo plazo.

Con Titans AI, Behrouz y otros investigadores de Google buscaron construir una arquitectura que permitiera a los modelos de IA desarrollar memoria a largo plazo que pudiera activarse continuamente, olvidando información para poder optimizarla computacionalmente.

Para ello, los investigadores diseñaron una arquitectura que codifica la historia en parámetros de redes neuronales. Se utilizan tres tipos diferentes: memoria como contexto (MAC), memoria como puerta (MAG) y memoria como capa (MAL). Cada una de estas variantes es adecuada para determinadas tareas.

Además, Titans utiliza un nuevo sistema de aprendizaje basado en sorpresas, que le dice a los modelos de IA que recuerden información inesperada o esencial sobre un tema. Estos dos cambios en la arquitectura de Titans permiten a los LLM mostrar una funcionalidad de memoria mejorada.

En una publicación separada, Behrouz afirmó que, según las pruebas internas del punto de referencia BABILong (un enfoque de aguja en un pajar), los modelos Titans (MAC) pudieron superar a los grandes modelos de IA como GPT-4, LLama 3 + RAG. , y Llama 3 70. para.



[ad_2]

Source Article Link

Categories
Business Industry

Las GPU Nvidia RTX 5000 utilizan chips de memoria Samsung GDDR7

[ad_1]

Uno de los lanzamientos más importantes que tuvo lugar durante el CES de este año fue La nueva línea de GPU de Nvidia. Gigante de la inteligencia artificial GPU RTX serie 50 anunciadaslogrando enormes ganancias en rendimiento. Uno de sus principales componentes, la memoria GDDR7, está fabricado por Samsung.

Las GPU Nvidia RTX serie 50 utilizan chips de memoria GDDR7 de Samsung

Chip de RAM Samsung GDDR7 de 24 GB

Ayer, el director ejecutivo de Nvidia, Jensen Huang, confirmó que las nuevas GPU de la serie RTX 50 están utilizando… GDDR7 Los chips VRAM y el lote inicial de GPU utilizarán chips de memoria de Samsung Electronics. Mientras hablaba con los periodistas, dijo:La serie GeForce RTX 50 utilizará productos GDDR7 de varios socios. El primero es Samsung Electronics.

El 6 de enero, día del anuncio de la nueva GPU, Jensen dijo erróneamente que las nuevas GPU utilizaban la memoria GDDR7 de Micron. Cuando habló con los periodistas, también dijo que no sabía que Samsung y SK Hynix fabricaban chips de memoria gráfica. Sin embargo, esto no es cierto. Entonces, dos días después, corrigió su error.

Samsung fue el primero en anunciar la memoria GDDR7. Compañía Desarrollo de GDDR7 completado Chips de memoria a mediados de 2023. Es probable que los chips entraran en producción en la segunda mitad del año pasado. Final Se han publicado las especificaciones GDDR7 A principios del año pasado.

Los nuevos chips ofrecen un ancho de banda de hasta 1,5 TB/s, un 40% más que los chips GDDR6. La velocidad de cada pin es de 32 Gbps, que se logra mediante el método de señalización PAM3 (modulación de amplitud de pulso).

Nvidia es actualmente el líder mundial en los segmentos de GPU y aceleradores de IA. Los últimos chips de IA utilizan chips de memoria HBM3E de Micron y SK Hynix. mientras Samsung también fabrica el chipset HBM3Esus chips No tenía certificación NvidiaLo que provocó enormes pérdidas en la división de semiconductores de Samsung.

[ad_2]

Source Article Link

Categories
News

GPU Blackwell Nvidia GeForce RTX serie 50 con DLSS 4 y hasta 32 GB de memoria GDDR7 lanzadas en CES 2025

[ad_1]

NVIDIA El lunes, anunció el lanzamiento de las GPU GeForce RTX serie 50 en Salón de electrónica de consumo 2025. Las tarjetas gráficas de alta gama de la compañía están equipadas con hasta 32 GB de memoria GDDR7 y 21.760 núcleos CUDA, y cuentan con la última tecnología Deep Learning Super Sampling (DLSS 4) de Nvidia. La GPU RTX 5090, la mejor de su clase, es capaz de ofrecer 3352 billones de operaciones por segundo (TOPS), mientras que la compañía afirma que el sucesor del modelo RTX 4090 del año pasado supera a la GPU de gama alta en “hasta 2 veces”.

Precio y disponibilidad de las GPU Nvidia GeForce RTX serie 50

La GPU insignia GeForce RTX 5090 es A un precio razonable En rupias. 214.000 mientras que el modelo RTX cuesta 5.080 rupias. 1.07.000. Mientras tanto, las GeForce RTX 5070 Ti y RTX 5070 le costarán Rs. 80.000 y rupias. 59.000 respectivamente.

La compañía dice que los modelos RTX 5090 y RTX 5080 estarán disponibles el 30 de enero, mientras que las GPU RTX 5070 Ti y RTX 5070 estarán disponibles a partir de febrero. Estará disponible en marcas como Asus, Colorful, Gainward, Galaxy, Gigabyte, INNO3D, KFA2, MSI, Palit, PNY y Zotac.

GeForce RTX 5090 integrada Nvidia Nvidia

NVIDIA GeForce RTX 5090
Fuente de la imagen: Nvidia

Los clientes también pueden esperar que las computadoras portátiles equipadas con la GPU GeForce RTX 5070 lleguen en abril, mientras que los modelos con los otros tres modelos estarán disponibles a partir de marzo. Las GPU formarán parte de los portátiles de Acer, Asus, Dell, Gigabyte, HP, Lenovo, MECHREVO, MSI y Razer.

Especificaciones de la unidad de procesamiento de gráficos Nvidia GeForce RTX serie 50

Como sucesora del modelo RTX 4090, la GPU GeForce RTX 5090 de Nvidia está equipada con 32 GB de VRAM GDDR7 (frente a los 24 GB de VRAM GDDR6), tiene una velocidad de reloj máxima de 2,4 GHz y cuenta con 21.760 núcleos CUDA. El modelo RTX 5080 tiene 16 GB de VRAM GDDR7 y 10.752 núcleos CUDA.

GeForce RTX Serie 50 Nvidia integrada Nvidia

Serie Nvidia GeForce RTX 50 en comparación con la GPU RTX 4090 del año pasado
Fuente de la imagen: Nvidia

Por otro lado, las GPU GeForce RTX 5070 Ti y RTX 5070 están equipadas con 16 GB y 12 GB de VRAM GDDR7, respectivamente. El primero está equipado con 8.960 núcleos CUDA, mientras que el segundo tiene 6.144 núcleos CUDA.

Las cuatro GPU están construidas con la arquitectura Blackwell de Nvidia, la sucesora de la tecnología Ada Lovelace. Cuenta con núcleos Tensor de quinta generación y núcleos de trazado de rayos de cuarta generación, lo que también es un paso adelante con respecto a los modelos de la serie RTX 40. Al mismo tiempo, está equipado con un codificador Nvidia (NVENC) de novena generación y un decodificador Nvidia de sexta generación (NVDEC). .

La GeForce RTX 5090 es la GPU más potente de la compañía para PC de consumo hasta la fecha, equipada con 92 mil millones de transistores, y la compañía dice que ofrece hasta el doble de rendimiento que el modelo RTX 4090 del año pasado. También se afirma que la tecnología Max-Q de Nvidia proporciona una duración de batería mejorada hasta un 40 por ciento.

Recibe las últimas novedades de CES en Gadgets 360, nuestro sitio web Salón de electrónica de consumo 2025 centro.

[ad_2]

Source Article Link

Categories
Life Style

La nueva fuga de Nvidia GeForce RTX 5090 sugiere un aumento significativo de la memoria

[ad_1]

Todos los que siguen las tarjetas gráficas están seguros de que Nvidia anunciará este producto. Serie GeForce RTX 50 en Salón de electrónica de consumo 2025. Una nueva filtración hace que esto parezca casi seguro.

fabricante chino Inno3D Parece que ha filtrado la versión iChill X3 de la popular GPU RTX 5090, gracias a… VídeoCardz. La filtración, que se trata de algún producto técnico que se supone que existe para la página web de una futura tienda online, no nos dice mucho. Sin embargo, el empaque parece confirmar que el 5090 vendrá con 32 GB de memoria GDDR7, el doble de la capacidad de la rumoreada tarjeta gráfica 5080.

Velocidad de la luz triturable

En términos sencillos, esto significa que debería ser realmente Rápido y capaz de hacer mucho, ya sean juegos, cultivo de Bitcoin o aplicaciones de inteligencia artificial. También es probable que sea costoso, como suelen ser estas cosas. Desafortunadamente, esta filtración no nos dice mucho, como el precio o una fecha de lanzamiento específica.

Pero probablemente no tendremos que esperar mucho más para descubrirlo. Nvidia es el anfitrión Gran discurso de apertura Para iniciar CES el lunes.



[ad_2]

Source Article Link

Categories
Featured

Micron quiere capturar una porción mayor del mercado HBM de 100 mil millones de dólares con soluciones de memoria vinculada HBM4 y HBM4E para 2026

[ad_1]


  • El gigante estadounidense de los semiconductores revela el lanzamiento del HBM4 en 2026, seguido del HBM4E
  • Probablemente será utilizado por la GPU Rubin R100 de Nvidia y el sucesor de AMD del Instinct MI400x.
  • Micron llega tarde a un mercado muy concurrido liderado por SK Hynix

Micron ha revelado más pasos en su plan para capturar una parte significativa del mercado de memorias de gran ancho de banda en rápida expansión.

El gigante estadounidense de semiconductores reveló durante su convocatoria de resultados del primer trimestre de 2025 que planea presentar productos de memoria HBM4 en 2026, seguidos de HBM4E en 2027/2028 con piezas de 64 GB y 2 TB/s diseñadas para aplicaciones avanzadas de inteligencia artificial y centros de datos.

Sanjay Mehrotra, presidente y director ejecutivo de Micron, destacó la creciente importancia de HBM en los planes de la compañía y afirmó: “El mercado de HBM mostrará un fuerte crecimiento en los próximos años. En 2028, esperamos que el mercado total direccionable de HBM (TAM) aumente crecerá cuatro veces desde el nivel de 16 mil millones de dólares en 2024 y superará los 100 mil millones de dólares en 2030. Nuestra previsión para TAM para HBM en 2030 será mayor “Según nuestra previsión, el tamaño de toda la industria de DRAM, incluida HBM, en el año 2024”.

Hoja de ruta de la memoria Micron

(Crédito de la imagen: Micron)

Llegando a la GPU insignia

[ad_2]

Source Article Link

Categories
Featured

Por eso que el sistema de IA Gemini de Google tenga la memoria adecuada podría salvar vidas

[ad_1]

Hoy en día hay mucha negatividad y alarmismo sobre la inteligencia artificial. No importa qué noticia publiques, si se trata de eso Google Géminis obtiene “memoria” o ChatGPT Decirle a un usuario algo que claramente está mal provocará un revuelo en parte de la comunidad en línea.

La atención que actualmente se presta a la IA en relación con la verdadera inteligencia artificial general (AGI) ha creado un espectáculo mediático casi histérico construido sobre visiones de fantasías de Terminator y otros escenarios apocalípticos.

[ad_2]

Source Article Link

Categories
Featured

Hay otra startup tecnológica que quiere desbancar a Nvidia con una mejor eficiencia energética. Sagence AI apuesta por la computación analógica en memoria para entregar 666K códigos/seg en el Llama2-70B

[ad_1]


  • Sagence ofrece computación analógica en memoria para redefinir la inferencia de IA
  • 10 veces menos energía y 20 veces menos costes
  • También proporciona integración con PyTorch y TensorFlow.

Sagence AI ha introducido una arquitectura informática analógica avanzada en memoria diseñada para abordar problemas de potencia, costo y escalabilidad. Amnistía Internacional Inferencia.

Utilizando un enfoque analógico, la arquitectura ofrece mejoras en la eficiencia energética y la rentabilidad, al tiempo que ofrece un rendimiento similar a los sistemas actuales de GPU y CPU.

[ad_2]

Source Article Link

Categories
Featured

Tesla emerge como un rival sorpresa para AMD y Nvidia en su búsqueda de memoria HBM4 de próxima generación para inteligencia artificial y supercomputadoras.

[ad_1]


  • Los chips HBM4 están preparados para respaldar las ambiciones avanzadas de IA de Tesla
  • Supercomputadora Dojo para integrar los chips HBM4 de alto rendimiento de Tesla
  • Samsung y SK Hynix compiten por pedidos de chips de memoria AI de Tesla

A medida que el mercado de memorias de gran ancho de banda (HBM) sigue creciendo y se espera que alcance los 33.000 millones de dólares en 2027, la competencia entre Samsung y la intensificación de SK Hynix.

Tesla está avivando las llamas ya que, según se informa, se ha puesto en contacto con Samsung y SK Hynix, dos de los mayores fabricantes de chips de memoria de Corea del Sur, para obtener muestras de sus chips HBM4 de próxima generación.

[ad_2]

Source Article Link

Categories
Featured

La base Mac Mini M4 agrega siete puertos (y hasta 8 TB de almacenamiento) a la increíble pequeña computadora de Apple, pero no estoy seguro de por qué tiene 3, sí, 3, lectores de tarjetas de memoria.

[ad_1]


  • Incluye HDMI, USB Type-C y jack de 3,5 mm
  • Velocidades de transferencia NVMe de hasta 10 Gbps
  • Los primeros envíos ya han comenzado

RayCue ha presentado un nuevo producto Estación de acoplamiento Especialmente diseñado para Los últimos dispositivos Mac mini de Apple Desarrollado por procesadores M4 y M4 Pro.

Esta base compacta mejora la mini PC versátil al agregar siete puertos y la capacidad de ampliar el almacenamiento hasta 8 TB mediante NVMe. SSD.

[ad_2]

Source Article Link

Categories
Featured

Los módulos de memoria CAMM2 prometen un gran avance en la tecnología de memoria con sorprendentes velocidades de lectura y escritura

[ad_1]

  • TeamGroup afirma que CAMM2 promete rendimiento DDR5 de alta velocidad
  • El diseño revolucionario proporciona operación de doble canal en una sola unidad.
  • La compatibilidad limitada de la placa base plantea desafíos para la certificación CAMM2

TeamGroup ha presentado el Módulo de memoria adjunto compacto 2 (CAMM2), que promete un rendimiento DDR5 de alta velocidad con la nueva línea T-Create.

La compañía dice que CAMM2 presenta un diseño revolucionario que ofrece ventajas significativas sobre los tipos de memoria tradicionales como SO-DIMM, U-DIMM y R-DIMM. Admite operación de doble canal con un solo módulo, lo que simplifica la arquitectura del sistema y reduce el consumo de energía.

[ad_2]

Source Article Link