Categories
News

Se presenta la arquitectura de inteligencia artificial de Google Titans con la capacidad de resolver problemas de memoria a largo plazo en modelos de inteligencia artificial

[ad_1]

Google Los investigadores dieron a conocer la semana pasada una nueva arquitectura de inteligencia artificial (IA) que puede permitir que los modelos de lenguaje grandes (LLM) recuerden el contexto a largo plazo de eventos y temas. El gigante tecnológico con sede en Mountain View ha publicado un artículo sobre el tema y los investigadores afirman que los modelos de IA entrenados con esta arquitectura mostraron una mayor retención de memoria “similar a la humana”. Vale la pena señalar que Google abandonó las arquitecturas tradicionales de transformadores y redes neuronales recurrentes (RNN) para desarrollar una nueva forma de enseñar a los modelos de inteligencia artificial cómo recordar información contextual.

Los gigantes pueden escalar la ventana contextual de los modelos de IA a más de 2 millones de símbolos

El investigador principal del proyecto, Ali Behrouz. publicar Acerca de la nueva arquitectura en X (anteriormente conocida como Twitter). Afirmó que la nueva arquitectura proporciona memoria descriptiva contextual con atención que enseña a los modelos de IA cómo recordar información en el momento de la prueba.

Según el documento de Google, eso fue publicado En la revista electrónica preimpresa arXiv, la arquitectura Titans puede escalar la ventana de contexto de los modelos de IA a más de dos millones de tokens. La memoria ha sido un problema difícil de resolver para los desarrolladores de IA.

Los humanos recuerdan información y eventos con contexto. Si alguien le pregunta a alguien qué llevaba puesto el fin de semana pasado, podrá recordar información contextual adicional, como asistir a la fiesta de cumpleaños de alguien a quien conoce desde hace 12 años. De esta manera, cuando se le pida que haga un seguimiento si uno se pregunta por qué llevaba una chaqueta marrón y jeans el fin de semana pasado, la persona podrá ponerlo en contexto con toda esta información a corto y largo plazo.

Por otro lado, los modelos de IA suelen utilizar esquemas de recuperación de generación aumentada (RAG), modificados para arquitecturas Transformer y RNN. Utiliza información como nodos neuronales. Entonces, cuando se le hace una pregunta al modelo de IA, accede al nodo específico que contiene la información clave, así como a los nodos cercanos que pueden contener información adicional o relacionada. Sin embargo, una vez resuelta la consulta, la información se elimina del sistema para ahorrar potencia de procesamiento.

Sin embargo, esto tiene dos desventajas. En primer lugar, el modelo de IA no puede recordar información a largo plazo. Si alguien quisiera hacer una pregunta de seguimiento una vez finalizada la sesión, tendría que proporcionar el contexto completo nuevamente (a diferencia de cómo trabajan los humanos). En segundo lugar, los modelos de IA no logran recuperar información que tenga un contexto a largo plazo.

Con Titans AI, Behrouz y otros investigadores de Google buscaron construir una arquitectura que permitiera a los modelos de IA desarrollar memoria a largo plazo que pudiera activarse continuamente, olvidando información para poder optimizarla computacionalmente.

Para ello, los investigadores diseñaron una arquitectura que codifica la historia en parámetros de redes neuronales. Se utilizan tres tipos diferentes: memoria como contexto (MAC), memoria como puerta (MAG) y memoria como capa (MAL). Cada una de estas variantes es adecuada para determinadas tareas.

Además, Titans utiliza un nuevo sistema de aprendizaje basado en sorpresas, que le dice a los modelos de IA que recuerden información inesperada o esencial sobre un tema. Estos dos cambios en la arquitectura de Titans permiten a los LLM mostrar una funcionalidad de memoria mejorada.

En una publicación separada, Behrouz afirmó que, según las pruebas internas del punto de referencia BABILong (un enfoque de aguja en un pajar), los modelos Titans (MAC) pudieron superar a los grandes modelos de IA como GPT-4, LLama 3 + RAG. , y Llama 3 70. para.



[ad_2]

Source Article Link

Categories
News

DeepSeek-V3 es un modelo de IA de código abierto lanzado con una arquitectura de mezcla experta

[ad_1]

Sec profundo, chino inteligencia artificial (AI), un modelo de IA DeepSeek-V3 el jueves. El nuevo modelo de lenguaje grande (LLM) de código abierto presenta la friolera de 671 mil millones de parámetros, superando los 405 mil millones de parámetros de Meta Llama 3.1. A pesar de su tamaño, los investigadores afirmaron que el LLM se centra en la eficiencia a través de su estructura mixta de expertos (MoE). Como resultado, el modelo de IA solo puede activar parámetros específicos relevantes para la tarea en cuestión y garantizar eficiencia y precisión. Vale la pena señalar que es un modelo basado en texto y no tiene capacidades multimedia.

Lanzamiento del modelo de IA DeepSeek-V3

El modelo de IA de código abierto DeepSeek-V3 está actualmente en marcha Alojado Abrazo en la cara. Según el listado, el LLM está orientado a una heurística eficiente y una formación rentable. Por esta razón, los investigadores adoptaron diseños de Atención latente de cabezas múltiples (MLA) y DeepSeekMoE.

Básicamente, el modelo de IA solo activa parámetros relevantes para el tema del reclamo, lo que garantiza un procesamiento más rápido y una mayor precisión en comparación con los modelos típicos de este tamaño. DeepSeek-V3, previamente entrenado con 14,8 billones de códigos, utiliza técnicas como el ajuste fino supervisado y el aprendizaje por refuerzo para generar respuestas de alta calidad.

La compañía china afirmó que, a pesar de su tamaño, el modelo de IA se entrenó completamente en 2.788 millones de horas utilizando una GPU Nvidia H800. La arquitectura DeepSeek-V3 también incluye tecnología de equilibrio de carga para reducir la degradación del rendimiento. Esta tecnología se utilizó por primera vez en su predecesor.

En términos de rendimiento, los investigadores compartieron evaluaciones de pruebas internas del modelo y afirmaron que supera a los modelos Meta Llama 3.1 y Qwen 2.5 en Big High Performance (BBH), comprensión lingüística multitarea (MMLU), HumanEval, MATH y varios otros puntos de referencia. Sin embargo, hasta el momento no ha sido verificado por investigadores externos.

Una de las características más importantes de DeepSeek-V3 es su enorme tamaño de 671 mil millones de parámetros. Si bien existen modelos más grandes, p. mellizo La versión 1.5 Pro tiene un billón de parámetros, un volumen que es poco común en el espacio del código abierto. Antes de eso, era el modelo de IA de código abierto más grande. muerto Llama 3.1 con 405 mil millones de parámetros.

En la actualidad, se puede acceder al código DeepSeek-V3 a través del menú Hugging Face bajo la licencia MIT para uso personal y comercial. Además, el modelo de IA también se puede probar a través de la plataforma de chatbot en línea de la empresa. Aquellos que quieran construir con el modelo AI también pueden acceder a la API.

Para lo último Noticias de tecnología y ReseñasSiga Gadgets 360 en incógnita, Facebook, WhatsApp, Temas y noticias de google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro canal. canal de youtube. Si quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es ese 360? en Instagram y YouTube.


Precio de las criptomonedas hoy: Bitcoin está experimentando una caída de precios, uniéndose a la mayoría de las criptomonedas en una corrección en todo el mercado



Los mejores teléfonos inteligentes de gama media de 2024: Redmi Note 14 Pro+, OnePlus Nord 4, Realme 13 Pro+ y más



[ad_2]

Source Article Link

Categories
News

Chipset Samsung Exynos 1580 con arquitectura de 4 nm y funciones de IA lanzadas

[ad_1]

Samsung Ha lanzado silenciosamente su último procesador móvil denominado Exynos 1580, que llega como el sucesor del Exynos 1480. Fue desarrollado internamente por Samsung Semiconductor y se fabrica mediante un proceso de 4 nm. El chipset octa-core viene con soporte para cámaras de hasta 200MP, funciones de inteligencia artificial (IA) y una unidad de procesamiento neuronal (NPU) con una NPU con 14,7 TOPS de potencia informática. Samsung afirma que puede ofrecer un rendimiento de GPU mejorado hasta un 37 por ciento.

En particular, el Samsung Galaxy A56 5G es uno de los supuestos teléfonos inteligentes que se espera que funcione con este chip.

Especificaciones del chip Samsung Exynos 1580

De acuerdo a Para Samsung, el chipset Exynos 1580 viene con núcleos ARM v9 actualizados y una nueva arquitectura de tres clústeres. Incluye un núcleo Cortex-A720 con frecuencia de 2,9 GHz, tres núcleos Cortex-A720 con frecuencia de 2,6 GHz y cuatro núcleos Cortex-A520 con frecuencia de 1,95 GHz. El Exynos 1580 admite RAM LPDDR5 y almacenamiento UFS 3.1. Viene con una NPU que admite hasta 14,7 billones de operaciones por segundo (TOPS) y una capacidad de memoria mejorada de 2 MB.

El chipset está emparejado con una GPU personalizada Samsung Xclipse 540 de tercera generación que, según se afirma, proporciona una mejora máxima de rendimiento de hasta un 37 por ciento. La GPU del procesador ahora cuenta con dos procesadores de grupo de trabajo (WGP), mayor capacidad de caché GL2 y el doble de procesamiento de unidades de textura.

El Exynos 1580 de Samsung admite RAM LPDDR5 y almacenamiento UFS 3.1. Viene con una NPU que ofrece hasta 14,7 billones de operaciones por segundo (TOPS) y una capacidad de memoria mejorada de 2 MB.

En cuanto a la óptica, el nuevo chipset de Samsung admite cámaras de hasta 200MP. Se afirma que ofrece un rendimiento mejorado de reducción temporal de ruido (TNR) gracias a una nueva función de mejora de movimiento y una gran suma de diferencias absolutas (SAD). Con estas actualizaciones, Samsung dice que permitirá a los usuarios capturar videos con menos ruido en situaciones de poca luz.

Para lo último Noticias de tecnología y ReseñasSiga Gadgets 360 en incógnita, Facebook, WhatsApp, Temas y noticias de google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro canal. canal de youtube. Si quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es ese 360? en Instagram y YouTube.


Just Corseca lanza cinco nuevos altavoces portátiles en India, incluidos Super Boom, Sushi Elegante y Soul Heaven



Precio de las criptomonedas hoy: Bitcoin y Ether están experimentando pequeñas pérdidas a medida que continúa la volatilidad del mercado



[ad_2]

Source Article Link

Categories
News

Se afirma que el Huawei Mate XT Ultimate Design funciona con un chipset Kirin 9010 de ocho núcleos con arquitectura de 64 bits.

[ad_1]

Diseño final del Huawei Mate XT El Huawei Y9 Prime 2019 se lanzó en China el martes como el primer teléfono inteligente plegable del mundo. Aunque la compañía reveló muchas de sus especificaciones, incluida una gran pantalla de 10,2 pulgadas cuando está completamente abierta y una configuración de cámara externa triple, no especificó el procesador que alimentará el teléfono. Sin embargo, un nuevo vídeo práctico del evento de lanzamiento oficial sugiere que podría funcionar con el chipset Kirin 9010, lo que confirma filtraciones anteriores.

Filtraciones sobre el chip procesador del teléfono Huawei Mate XT

En un vídeo publicado en la plataforma de redes sociales china Weibo (a través de la cuenta X de Taylor Ogan) correo), Huawei Se han filtrado detalles del chip Mate XT Ultimate Design. Se afirma que tiene un chipset Kirin 9010 debajo del capó. Se dice que este chip cuenta con ocho núcleos; Un núcleo de rendimiento Taishan con una frecuencia de 2,3 GHz, tres núcleos medianos con una velocidad máxima de 2,18 GHz y cuatro núcleos de eficiencia con una velocidad de reloj máxima de 1,55 GHz.

Además, el procesador Kirin 9010 que alimenta el Mate XT Ultimate Design presenta una arquitectura de 64 bits y se dice que viene con una GPU Maleoon 910 MP4, que también se dice que está integrada en los conjuntos de chips Kirin 9000W y 9000S. Se dice que el procesador es fabricado por Semiconductor Manufacturing International Corporation (SMIC), el mayor fabricante de chips de China.

Vale la pena señalar que este sistema en un chip también alimenta otro teléfono inteligente Huawei, el… Puro 70 Ultraque también está disponible exclusivamente en China.

Especificaciones del teléfono Huawei Mate XT

El Huawei Mate XT Ultimate Design presenta un diseño de triple plegado, con una pantalla OLED flexible de 10,2 pulgadas (cuando está plegada) que se convierte en una pantalla de 7,9 pulgadas cuando se pliega una vez y en una pantalla de 6,4 pulgadas cuando se pliega dos veces. También tiene 16 GB de RAM, ejecuta HarmonyOS 4.2 y viene en opciones de almacenamiento de 256 GB, 512 GB y 1 TB.

En términos de óptica, el Huawei Mate XT Ultimate Design presenta una configuración de cámara externa triple que consta de una cámara principal de 50MP, un sensor ultra gran angular de 12MP y un teleobjetivo de 12MP. La pantalla interna también contiene una cámara para selfies de 8 megapíxeles.

Huawei ha proporcionado a su teléfono triple plegable una batería de 5600 mAh con soporte para carga por cable de 66 W y carga inalámbrica de 50 W.

[ad_2]

Source Article Link

Categories
Featured

El primer objetivo zoom del mundo, Laowa, puede ser el sueño de los fotógrafos de arquitectura

[ad_1]

Venus Optics, el fabricante chino de lentes Laowa, ha anunciado sus próximas lentes Weibo Parece que su última creación será la primera de su tipo en el mundo: una lente que puede transformar Y Acercarse.

Una lente de conversión es un elemento básico en la bolsa de herramientas de un fotógrafo de arquitectura, pero nunca han usado una lente como esta. Esto se debe a que todos los lentes de conversión disponibles actualmente son lentes fijos (distancia focal fija), mientras que el próximo lanzamiento de Laowa es un lente con zoom.

[ad_2]

Source Article Link

Categories
Featured

AMD agrega memoria ultrarrápida a su acelerador insignia Instinct AI de cara a la próxima generación de arquitectura CDNA 4: el acelerador Instinct MI325X tiene el doble de memoria y un 30% más de ancho de banda en comparación con el H200 de Nvidia.

[ad_1]

AMD Reveló nuevas arquitecturas de CPU, Unidad de procesamiento neuronal (NPU) y Unidad de procesamiento de gráficos (GPU) que tienen como objetivo “impulsar la infraestructura de IA de extremo a extremo desde el centro de datos hasta las PC”, junto con la hoja de ruta del acelerador de AMD El Instinct ampliado y el. nuevo acelerador Instinct MI325X, que según dice estará disponible en el cuarto trimestre. 2024.

El nuevo Instinct MI325X ofrece memoria HBM3E de 288 GB y ancho de banda de memoria de 6 TB/s. AMD dice que esto significa que ofrecerá el doble de capacidad de memoria y 1,3 veces el ancho de banda en comparación con la “competencia”, lo que significa… NVIDIAH200, además de un rendimiento informático 1,3 veces mejor.

[ad_2]

Source Article Link

Categories
News

Detalles de Intel: arquitectura Lunar Lake, acelerador de IA de Gaudí y presenta procesadores Xeon 6

[ad_1]

Corporación Intel Los procesadores Xeon 6 se lanzaron en el evento anual Computex de AMD, donde la compañía compartió detalles de su estrategia de IA. Al igual que Nvidia, Asus y otros participantes en el evento, el fabricante de chips también presentó su cartera basada en IA, que incluye nuevo hardware, innovación en centros de datos y aceleradores de IA para alimentar servidores con capacidades de IA. En particular, la compañía también compartió detalles sobre la plataforma Lunar Lake y explicó cómo la arquitectura mejorará las computadoras personales con inteligencia artificial. Intel también reveló los precios de sus aceleradores de IA Gaudi 2 y Gaudi 3.

Intel comparte detalles de la arquitectura Lunar Lake

Para impulsar la próxima ola de computadoras personales con IA, Intel ha anunciado su lanzamiento lago de la luna CPU que suceden a los chips Meteor Lake del mes pasado. Durante el evento Computex en curso, el fabricante de chips compartió más detalles sobre su arquitectura. Hay un nuevo diseño de sistema en chip que, según la compañía, triplica su tamaño y ofrece más de cuatro veces el rendimiento de su acelerador de IA. También se afirma que ofrece un rendimiento de CPU hasta un 14 por ciento más rápido, un rendimiento gráfico un 50 por ciento mayor y una eficiencia de batería hasta un 60 por ciento mejor en comparación con su predecesor.

Los procesadores Lunar Lake cuentan con una unidad de procesamiento neuronal (NPU) de cuarta generación capaz de manejar hasta 48 tera de operaciones por segundo (TOPS) de rendimiento de IA. El nuevo diseño de GPU, cuyo nombre en código es Battlemage, mejora drásticamente el rendimiento de juegos y gráficos y ofrece hasta 67 TOPS de rendimiento en la creación de contenido de IA.

Otros cambios notables incluyen 16 GB o 32 GB de memoria LPDDR5X integrada en el sistema en lugar de una tarjeta de memoria discreta. Esto significa que no hay opción para conectar más RAM.

Se lanzan los procesadores Intel Xeon 6

Apenas seis meses después del lanzamiento de los procesadores Intel Xeon de quinta generación, el gigante tecnológico presenta ahora sus primeros conjuntos de chips Xeon 6, incluidos el Xeon 6 E-core y el Xeon 6 P-core. También conocido como Efficient-core, el Intel Xeon 6 E-core está diseñado para ofrecer un rendimiento centrado en la IA y al mismo tiempo consumir menos energía. Por otro lado, P-core proporciona un mayor rendimiento. Estos procesadores están destinados a que los centros de datos ejecuten funciones de IA basadas en servidores y computación de IA por hardware.

Los procesadores Intel Xeon 6 E-core ya están disponibles para su compra y la compañía lanzará los procesadores Xeon 6 P-core en el tercer trimestre del año. Los precios no fueron revelados.

Revelado el precio de los kits aceleradores de IA Intel Gaudi 2 y Gaudi 3

Intel también compartió detalles de precios para sus grupos de aceleradores de IA Gaudi 2 y Gaudi 3, que la compañía está posicionando como una alternativa a los chips H100 de Nvidia. Los aceleradores de IA están dirigidos a clientes con flujos de trabajo intensivos en IA y se dice que proporcionan mejoras de rendimiento para tareas de entrenamiento e inferencia para los principales modelos de IA de código abierto.

Según la compañía, Intel Gaudi 3 es un grupo de 8.192 aceleradores que ofrece un tiempo de entrenamiento del modelo de IA hasta un 40 por ciento más rápido en comparación con los grupos de GPU H100. La compañía ha encontrado números que realizan pruebas para entrenar el modelo de IA Llama-2 70B. Intel dice que la inferencia también es más rápida con sus aceleradores.

El clúster de IA estándar que contiene ocho aceleradores Intel Gaudi 2 y una placa básica universal (UBB) se ofrecerá a los proveedores de sistemas a un precio de 65.000 dólares (aproximadamente 5.433.100 rupias). El Intel Gaudi 3 con una configuración similar estará disponible por 125.000 dólares (aproximadamente 10.448.200 rupias).

[ad_2]

Source Article Link