Categories
Featured

Este exótico NAS de 8 unidades afirma tener un LLM integrado y no puedo esperar a que salga a la venta

[ad_1]


  • La marca Challenger Ugreen dice que su último NAS insignia tiene un LLM integrado
  • Está equipado con Intel Core Ultra 5 y admite hasta ocho unidades.
  • Me gusta el hecho de que tiene LAN dual GbE e incluso un puerto OCuLink

motor 8 gente ¿Con el modelo integrado de lenguaje grande (LLM)? Cuenta conmigo.

Salón de electrónica de consumo 2025 Hemos visto una gran cantidad de anuncios de hardware interesantes a lo largo de la semana, pero los nuevos modelos UGREEN NASync iDX6011 e iDX6011 Pro se encuentran sin duda entre los mejores y más brillantes.

[ad_2]

Source Article Link

Categories
News

Hugging Face ofrece la biblioteca Smolagents para crear agentes de IA utilizando LLM de código abierto

[ad_1]

abrazo de cara La semana pasada presentó una nueva biblioteca de códigos para permitir a los desarrolladores crear fácilmente agentes de inteligencia artificial (IA). La herramienta, llamada smolagents, define la lógica subyacente de agentes de IA simples y de propósito general que pueden realizar acciones implementándolas en código. Smolagent se puede vincular a cualquier modelo de lenguaje grande (LLM) de código abierto o a un número selecto de LLM basados ​​en la nube. Los desarrolladores también pueden crear herramientas para conectar la parte de salida externa del agente. Estas herramientas también se pueden compartir en la plataforma para permitir que otros desarrolladores accedan a ellas y las utilicen.

Hugging Face ofrece una biblioteca de Smolagents para agentes de IA

en un Publicación de blogLa plataforma de inteligencia artificial y aprendizaje automático (ML) anunció la nueva herramienta que tiene como objetivo facilitar a los desarrolladores el uso de las capacidades de los agentes. La biblioteca viene con aproximadamente 1000 líneas de código que definen la funcionalidad básica del agente de IA. Los desarrolladores pueden adjuntarlo al LLM y a cualquier herramienta externa de recopilación de datos o ejecución de acciones. Al centrarse únicamente en estos dos elementos, la plataforma afirma que a los desarrolladores les resultará más fácil crear nuevos agentes y utilizarlos en sus proyectos y aplicaciones.

Los Smolagents están diseñados teniendo en cuenta factores simples. Esto significa que pueden realizar cualquier tarea, pero probablemente no sean adecuados para trabajos de varios pasos o de múltiples agentes. Hugging Face declaró que puede escribir acciones en código (como ejecutar acciones) pero no puede usarse para escribir dicho código. La plataforma también permite a los desarrolladores implementar tengo un agente En ambientes aislados vía E2B para probar confiabilidad y modificar salidas.

La biblioteca del agente también admite el estándar ToolCallingAgent que escribe acciones en JSON o manchas de texto. Además, una vez que un desarrollador crea una herramienta de agente, también puede compartirla con la comunidad. Los usuarios pueden elegir cualquier modelo abierto alojado en la plataforma a través de la interfaz de programación de aplicaciones (API) de inferencia gratuita o elegir entre una lista de más de 100 modelos diferentes basados ​​en la nube.

Cuando navega a la herramienta, Hugging Face recomienda crear una función que contenga sugerencias para escribir en las entradas y salidas, así como descripciones de las entradas. Al resaltar el caso de uso, la plataforma mostró un código para un agente de inteligencia artificial que puede obtener tiempos de viaje de Google Maps y planificar rutas de viaje para los usuarios.

Para lo último Noticias de tecnología y ReseñasSiga Gadgets 360 en incógnita, Facebook, WhatsApp, Temas y noticias de google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro canal. canal de youtube. Si quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es ese 360? en Instagram y YouTube.


La fecha de lanzamiento de la serie Oppo Reno 13 5G en India está fijada para el 9 de enero; Configuraciones de RAM y almacenamiento reveladas



KuCoin lanza una nueva función de pago que permite pagos similares a UPI mediante códigos QR



[ad_2]

Source Article Link

Categories
Bisnis Industri

iOS 19 podría presentar un LLM Siri más conversacional

[ad_1]

Siri con inteligencia artificial (IA).

Es posible que llegue una Siri más habladora como parte de iOS 19 el próximo año.
Foto: Cult Mac/Nadezhda Moriak

Apple planea mejorar aún más Siri con iOS 19 en 2025 con modelos avanzados de lenguaje grande (LLM) de próxima generación.

Gracias al nuevo software LLM que impulsa a Siri, el asistente de voz debería volverse más conversacional.

Siri podría mejorar en iOS 19

Apple ha introducido importantes actualizaciones para Siri con iOS 18 Este año, incluye un nuevo y elegante diseño. con inteligencia de manzanaEl asistente de voz se volvió más inteligente.

Mayor actualización para Siri llegará con iOS 18.4 el próximo añopermitiéndole utilizar el asistente de voz para controlar aplicaciones. El gigante de Cupertino depende en gran medida de la inteligencia artificial para mejorar y potenciar la experiencia Siri. Pero eso no es todo, ya que Apple está planeando una actualización mayor a Siri con iOS 19 en 2025.

Bloomberg Los informes sugieren que Apple está desarrollando un Siri “más conversacional” impulsado por modelos de lenguaje avanzados de gran tamaño. Esto permitirá conversaciones naturales, como se ve en Gemini Live y el modo de voz de ChatGPT. Según se informa, los empleados de Apple se refieren internamente a la función como “LLM Siri”. Pasará a formar parte de Apple Intelligence en el momento del lanzamiento.

“La próxima generación de LLM planificada para iOS 19 será un nuevo sistema todo en uno que ofrecerá capacidades más avanzadas similares a ChatGPT”, dice el informe.

Apple está contratando ingenieros para trabajar en la creación de asistentes inteligentes

En los últimos meses, Apple ha publicado varias ofertas de trabajo para contratar a las personas adecuadas para el puesto.

Una lista dice: “Te unirás a un equipo que está redefiniendo la informática, creando tecnologías innovadoras de asistentes conversacionales tanto para sistemas a gran escala como para nuevos dispositivos de clientes, y con las personas que crean asistentes inteligentes”.

Aunque Apple está probando Siri conversacional para iOS 19, no se lanzará cuando se lance el sistema operativo en septiembre de 2025. En cambio, parece que no debutará hasta la primavera de 2026. Dado que la función aún está en desarrollo, es posible que Apple Los planes cambian y los planes de Apple pueden cambiar. Es posible que se inicien más conversaciones de Siri como parte del propio iOS 19.



[ad_2]

Source Article Link

Categories
Business Industry

Samsung presenta Bixby de próxima generación impulsado por LLM

[ad_1]

Hoy temprano, Samsung quitar el velo Dos nuevos teléfonos plegables (W25 y W25 Flip) para China. Comparten muchas características de hardware con Edición especial Galaxy Z Fold y Galaxy Z Flip 6. Sin embargo, tienen un nuevo truco de software que actualmente falta en los teléfonos Galaxy de todo el mundo: Bixby de próxima generación.

La nueva versión de Bixby puede entender fácilmente el lenguaje natural

La nueva versión de bixbyque apareció por primera vez en W25 y W25 Flip, es compatible con Large Language Models (LLM). Por lo tanto, es mucho mejor para comprender el lenguaje natural y el contexto. Puede comprender oraciones que contienen múltiples comandos. Samsung proporcionó algunos ejemplos de cómo el nuevo Bixby mejora la versión actual.

Esta versión de Bixby es ya disponible En algunos dispositivos Samsung nuevos y avanzados.

Bixby 2024 LLM de próxima generación

Si dices “Afuera está nublado. ¿Qué debo ponerme para ir a trabajar hoy?Bixby te dirá el pronóstico del tiempo y te pedirá que uses un impermeable de camino al trabajo debido a la posibilidad de lluvia. Entonces si preguntas:¿Cuanto tiempo me tomará llegar?Bixby entenderá que estás hablando de viajar a tu lugar de trabajo y te mostrará direcciones y tiempo estimado de llegada según las condiciones del tráfico.

Bixby también puede proporcionar procedimientos detallados paso a paso para realizar tareas en su teléfono Galaxy. Por ejemplo, si preguntas cómo agregar una marca de agua a las fotos tomadas con la cámara, Bixby te explicará la función de la cámara de una manera fácil de entender.

Puede obtener información de aplicaciones telefónicas y comprender el contexto. Entonces, cuando preguntes cuándo es tu función familiar, buscará en la aplicación de calendario y te traerá la entrada relevante con el nombre de la función, fecha, hora y ubicación.

Contexto de pantalla para Bixby 2024 de próxima generación

La nueva versión de Bixby también puede comprender lo que hay en la pantalla y brindar asistencia contextual. Por ejemplo, cuando estás chateando con un amigo y te pide que te encuentres con él en un lugar determinado, puedes iniciar Bixby y pedirle que “Ve aquí.Bixby buscará en la pantalla información de ubicación y luego usará la aplicación Mapas para comenzar a navegar.

El nuevo Bixby tiene un diseño de interfaz de usuario moderno

Interfaz Samsung W25 Flip Bixby 2024

Por lo que aparece en las imágenes, la nueva versión de Bixby tiene un nuevo diseño para la interfaz de usuario que ocupa toda la pantalla, y puedes hablar con él mediante texto o voz. Algunos comandos se sugieren en la parte superior. Puede utilizar estos comandos o escribir los suyos propios. También cuenta con animaciones multicolores, similares a Gemini y la nueva Siri.

También puedes llamarlo desde cualquier lugar del teléfono. Por ejemplo, puedes llamarlo durante una conversación con tu amigo y preguntarle sobre las cosas que aparecen en la pantalla. También puedes llamarlo mientras navegas por la web y pedirle que convierta la página web a tu idioma. También puede crear documentos (documento, presentación u hoja de cálculo) según sus requisitos.

¿Cuándo podrás usar la nueva versión de Bixby?

Por ahora, la nueva versión de Bixby solo está disponible en W25 y W25 Flip en China. Es posible que pronto se extienda a otros teléfonos.

Aunque la nueva versión de Bixby aún no está disponible a nivel mundial, Samsung podría lanzarla en todo el mundo (según el soporte de idiomas) con One UI 7.0 a principios del próximo año.

[ad_2]

Source Article Link

Categories
Featured

Otra startup quiere descifrar el código LLM pero esta vez usando luz; La empresa líder en óptica Oriole Networks quiere que los estudiantes de LLM se capaciten 100 veces más rápido y con una fracción de energía

[ad_1]

Hace dos años, inicié la startup israelí CogniFiber. Ella apareció en los titulares con DeeplightSe trata de un cable de fibra óptica que puede “procesar algoritmos complejos dentro de la propia fibra antes de que la señal llegue a la estación”. En su momento, advertimos que esta tecnología no llegaría a los usuarios finales en un futuro próximo y que era poco probable que apareciera en portátiles o teléfonos inteligentes en un futuro próximo.

pero, eeNews incrustado Ahora informa sobre Oriole Networks, una startup con sede en el Reino Unido que utiliza la luz para un propósito diferente: crear redes eficientes de chips de inteligencia artificial.

[ad_2]

Source Article Link

Categories
Featured

¿Se convertirán los LLM en los mediadores definitivos, para bien o para mal? Los investigadores de DeepMind y los usuarios de Reddit parecen estar de acuerdo

[ad_1]

Los expertos en inteligencia artificial creen que los modelos de lenguajes grandes (LLM) pueden servir como intermediarios en ciertos escenarios donde no se pueden llegar a acuerdos entre individuos.

Un estudio reciente realizado por investigadores de Google DeepMind buscó explorar el uso potencial del MBA en este sentido, particularmente en relación con la resolución de disputas controvertidas en medio del clima político polémico a nivel mundial.

[ad_2]

Source Article Link

Categories
Life Style

Un estudio de Apple revela una importante falla de IA en OpenAI, Google y Meta LLM

[ad_1]

Los modelos de lenguajes grandes (LLM) pueden no ser tan inteligentes como parecen, según A el estudia de manzana Investigadores.

Los estudiantes de MBA de OpenAI, Google, Meta y otros han sido elogiados por sus impresionantes habilidades de razonamiento. Pero las investigaciones sugieren que su supuesta inteligencia puede estar más cerca de una “coincidencia de patrones complejos” que de un “verdadero razonamiento lógico”. Sí, incluso OpenAI o1 Modelo de razonamiento avanzado.

El estándar más común para las habilidades de razonamiento es una prueba llamada GSM8K, pero debido a que es tan común, existe el riesgo de contaminación de los datos. Esto significa que los estudiantes de LLM pueden conocer las respuestas del examen porque han sido capacitados en esas respuestas, más que por su inteligencia inherente.

Para probar esto, el estudio desarrolló un nuevo punto de referencia llamado GSM-Symbolic que mantiene la esencia de los problemas de inferencia, pero cambia variables, como nombres, números y complejidad, y agrega información irrelevante. Lo que descubrieron fue una sorprendente “fragilidad” en el desempeño del LLM. El estudio probó más de 20 modelos, incluidos o1 y GPT-4o de OpenAI, Gemma 2 de Google y Llama 3 de Meta. Con cada modelo, el rendimiento del modelo disminuyó cuando se cambiaron las variables.

La precisión disminuyó unos pocos puntos porcentuales cuando se cambiaron los nombres y las variables. Como señalaron los investigadores, los modelos de OpenAI funcionaron mejor que otros modelos de código abierto. Sin embargo, la variación se consideró “no despreciable”, lo que significa que no debería ocurrir ninguna variación real. Sin embargo, las cosas se pusieron realmente interesantes cuando los investigadores agregaron a la mezcla “frases aparentemente relevantes pero en última instancia sin importancia”.

Velocidad de la luz triturable

Para probar la hipótesis de que los estudiantes de MBA dependían más de la coincidencia de patrones que del pensamiento real, el estudio añadió declaraciones redundantes a los problemas de matemáticas para ver cómo interactuaban los patrones. Por ejemplo, “Oliver recoge 44 kiwis el viernes. Luego recoge 58 kiwis el sábado. El domingo, recoge el doble de kiwis que el viernes, Pero cinco de ellos eran ligeramente más pequeños que el promedio. ¿Cuántos kiwis tiene Oliver?

Lo que provocó una disminución significativa del rendimiento en todas las áreas. La vista previa o1 de OpenAI obtuvo los mejores resultados, con una caída de precisión del 17,5 por ciento. Eso sigue siendo bastante malo, pero no tan malo como el modelo Phi 3 de Microsoft, que tuvo un rendimiento un 65 por ciento peor.

En el ejemplo del kiwi, el estudio dijo que los estudiantes de LLM tendían a restar cinco kiwis más pequeños de la ecuación sin entender que el tamaño del kiwi no tenía nada que ver con el problema. Esto sugiere que “los modelos tienden a transformar datos en procesos sin comprender realmente su significado”, validando la hipótesis de los investigadores de que los estudiantes de LLM buscan patrones en problemas de razonamiento, en lugar de comprender el concepto de forma innata.

El estudio no se anduvo con rodeos acerca de sus hallazgos. Probar modelos para comparar que incluyen información irrelevante “revela una falla grave en la capacidad de LLM para comprender verdaderamente conceptos matemáticos y discernir información relevante para resolver problemas”. Sin embargo, vale la pena señalar que los autores de este estudio trabajan para Apple, que es claramente un importante competidor de Google, Meta e incluso OpenAI; aunque existe una asociación entre Apple y OpenAI, Apple también está trabajando en sus propios modelos de IA.

Sin embargo, no se puede ignorar la aparente falta de habilidades de pensamiento formal entre los titulares de un LLM. En última instancia, este es un buen recordatorio para moderar el revuelo en torno a la IA con un saludable escepticismo.



[ad_2]

Source Article Link

Categories
Featured

La empresa matriz de TikTok podría eludir a Nvidia y AMD, ya que los informes afirman que utilizará 100.000 chips de IA de Huawei para formar un LLM de próxima generación.

[ad_1]

Después del cese de las restricciones comerciales de Estados Unidos NVIDIA Al exportar chips de IA avanzados a China, la compañía respondió desarrollando la GPU H20, una versión modificada que cumple con las regulaciones al ofrecer niveles de rendimiento más bajos y al mismo tiempo cumplir con los requisitos de procesamiento de IA de las empresas chinas.

Aunque hay El próspero mercado negro En cuanto a las GPU de gama alta de Nvidia, la empresa matriz de TikTok, ByteDance, que ya está bajo un intenso escrutinio en Estados Unidos, no podía permitirse los riesgos legales y de reputación de participar en mercados ilegales, por lo que ha estado comprando procesadores capaces de Nvidia. para satisfacer sus necesidades de IA. Se dice que ByteDance es el mayor comprador de dispositivos H20 en China, y gastará más de 2 mil millones de dólares en dispositivos solo en 2024.

[ad_2]

Source Article Link

Categories
Featured

¿AMD planea enfrentarse a Apple y Nvidia con la APU más potente de todos los tiempos? Se rumorea que el Ryzen AI Max+ 395 admite 96 GB de RAM y puede ejecutar LLM masivos en memoria sin la necesidad de una GPU AI dedicada.

[ad_1]

AMD Los límites de las GPU integradas se están ampliando con la próxima serie Ryzen AI Max, construida sobre la arquitectura Strix Halo, según filtraciones e informes recientes de varios foros técnicos. Diseñada para superar al Ryzen AI 9 HX 375, esta serie tiene como objetivo ofrecer un rendimiento excepcional en gráficos integrados y potencia de procesamiento.

Según filtraciones de David Huang en X (anteriormente Twitter) e informes adicionales de foros de tecnología chinos, la línea Ryzen AI Max incluirá tres modelos. El Ryzen AI Max 385 tendrá 8 núcleos de CPU y una iGPU con 32 unidades de cómputo (CU). Por encima está el Ryzen AI Max 390 con 12 núcleos y 40 CU, mientras que el modelo insignia Ryzen AI Max+ 395 tiene 16 núcleos y 40 CU.



[ad_2]

Source Article Link

Categories
Featured

Cómo las organizaciones pueden aprovechar al máximo los programas LLM

[ad_1]

A medida que más organizaciones experimentan con GenAI, el alcance de los modelos de IA emergentes se amplía. La amplia variedad de modelos disponibles significa que las organizaciones que superaron la pregunta inicial de si deberían usar IA en primer lugar ahora enfrentan una pregunta más difícil: ¿qué modelo deberían usar?

Con la gran cantidad de opciones disponibles en el mercado y el desarrollo e introducción constante de nuevos modelos, muchas empresas no están seguras de qué dirección seguir y qué modelo adoptar para respaldar mejor el desarrollo de sus productos. AplicacionesMientras miramos hacia el futuro y esperamos que se introduzcan más modelos y versiones, las organizaciones deben adoptar un enfoque flexible al elegir modelos de IA, cambiando el enfoque de encontrar el proveedor que mejor se adapte a adoptar un enfoque equilibrado y con visión de futuro con LLM Mesh. .

Emma Irvin

Responsable de Ingeniería de Ventas en Dataiku.

Los riesgos que plantea depender de un solo proveedor

[ad_2]

Source Article Link