Categories
News

El modelo de microlenguaje Phi-4 de Microsoft es de código abierto y está disponible para descargar en Hugging Face

[ad_1]

microsoft El modelo de microlenguaje Phi-4 estará abierto el miércoles. El último modelo de inteligencia artificial (IA) de la serie Phi se lanzó el mes pasado; sin embargo, en ese momento solo estaba disponible a través de Azure AI Foundry de la compañía. En ese momento, el gigante tecnológico con sede en Redmond dijo que pronto haría que el código fuente del modelo de IA estuviera disponible en el dominio público. Ahora, las personas interesadas pueden acceder al modelo de IA centrado en el razonamiento a través de Hugging Face. Microsoft también permite que el modelo se utilice en casos de uso académico y empresarial.

Modelo de IA Phi-4 de código abierto de Microsoft

Sheetal Shah, miembro del personal técnico de Microsoft AI, llevar a X (anteriormente Twitter) para anunciar la disponibilidad de los pesos del modelo Phi-4 AI en Hugging Face. El modelo de IA está disponible bajo licencia del MIT para uso académico y comercial. Las personas interesadas pueden acceder a una lista de formularios. aquí.

Lanzado ocho meses después del lanzamiento del modelo de IA Phi-3, se dice que el SLM ofrece mejoras significativas en la resolución de consultas complejas basadas en heurísticas en campos como las matemáticas. Phi-4 tiene una ventana de contexto de 16.000 tokens y fue entrenado en un conjunto de datos de 9,8 billones de tokens.

Citando la fuente de los datos de capacitación, la lista de Hugging Face destaca un conjunto de datos que incluye tutoriales y datos educativos de alta calidad disponibles públicamente, datos sintéticos sobre una amplia gama de temas, libros académicos aprendidos y conjuntos de datos de preguntas y respuestas, así como datos en formato de chat moderado.

Vale la pena señalar que es un modelo de solo texto, lo que significa que solo acepta texto como entrada y salida. El modelo de IA viene con 14 mil millones de parámetros. Microsoft afirma que el modelo de IA se basa en una arquitectura de transformador denso solo decodificador.

En el momento del lanzamiento, Microsoft también compartió los resultados comparativos del modelo de IA. En consecuencia, la compañía afirmó que la última versión del Phi SLM supera al modelo Gemini 1.5 Pro en el punto de referencia de problemas de competición deportiva.

También se puede acceder al modelo Phi-4 AI a través de Azure AI Foundry de Microsoft. La plataforma también ofrece ayudar a los desarrolladores y organizaciones a gestionar los riesgos de la IA. También viene con funciones como protectores de velocidad, detección de puesta a tierra y filtros de contenido. Estas capacidades de seguridad también se pueden exportar a una aplicación utilizando la interfaz de programación de aplicaciones (API) de la empresa.

Recibe las últimas novedades de CES en Gadgets 360, nuestro sitio web Salón de electrónica de consumo 2025 centro.

[ad_2]

Source Article Link

Categories
News

Hugging Face ofrece la biblioteca Smolagents para crear agentes de IA utilizando LLM de código abierto

[ad_1]

abrazo de cara La semana pasada presentó una nueva biblioteca de códigos para permitir a los desarrolladores crear fácilmente agentes de inteligencia artificial (IA). La herramienta, llamada smolagents, define la lógica subyacente de agentes de IA simples y de propósito general que pueden realizar acciones implementándolas en código. Smolagent se puede vincular a cualquier modelo de lenguaje grande (LLM) de código abierto o a un número selecto de LLM basados ​​en la nube. Los desarrolladores también pueden crear herramientas para conectar la parte de salida externa del agente. Estas herramientas también se pueden compartir en la plataforma para permitir que otros desarrolladores accedan a ellas y las utilicen.

Hugging Face ofrece una biblioteca de Smolagents para agentes de IA

en un Publicación de blogLa plataforma de inteligencia artificial y aprendizaje automático (ML) anunció la nueva herramienta que tiene como objetivo facilitar a los desarrolladores el uso de las capacidades de los agentes. La biblioteca viene con aproximadamente 1000 líneas de código que definen la funcionalidad básica del agente de IA. Los desarrolladores pueden adjuntarlo al LLM y a cualquier herramienta externa de recopilación de datos o ejecución de acciones. Al centrarse únicamente en estos dos elementos, la plataforma afirma que a los desarrolladores les resultará más fácil crear nuevos agentes y utilizarlos en sus proyectos y aplicaciones.

Los Smolagents están diseñados teniendo en cuenta factores simples. Esto significa que pueden realizar cualquier tarea, pero probablemente no sean adecuados para trabajos de varios pasos o de múltiples agentes. Hugging Face declaró que puede escribir acciones en código (como ejecutar acciones) pero no puede usarse para escribir dicho código. La plataforma también permite a los desarrolladores implementar tengo un agente En ambientes aislados vía E2B para probar confiabilidad y modificar salidas.

La biblioteca del agente también admite el estándar ToolCallingAgent que escribe acciones en JSON o manchas de texto. Además, una vez que un desarrollador crea una herramienta de agente, también puede compartirla con la comunidad. Los usuarios pueden elegir cualquier modelo abierto alojado en la plataforma a través de la interfaz de programación de aplicaciones (API) de inferencia gratuita o elegir entre una lista de más de 100 modelos diferentes basados ​​en la nube.

Cuando navega a la herramienta, Hugging Face recomienda crear una función que contenga sugerencias para escribir en las entradas y salidas, así como descripciones de las entradas. Al resaltar el caso de uso, la plataforma mostró un código para un agente de inteligencia artificial que puede obtener tiempos de viaje de Google Maps y planificar rutas de viaje para los usuarios.

Para lo último Noticias de tecnología y ReseñasSiga Gadgets 360 en incógnita, Facebook, WhatsApp, Temas y noticias de google. Para ver los últimos vídeos sobre gadgets y tecnología, suscríbete a nuestro canal. canal de youtube. Si quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es ese 360? en Instagram y YouTube.


La fecha de lanzamiento de la serie Oppo Reno 13 5G en India está fijada para el 9 de enero; Configuraciones de RAM y almacenamiento reveladas



KuCoin lanza una nueva función de pago que permite pagos similares a UPI mediante códigos QR



[ad_2]

Source Article Link

Categories
Featured

Hugging Face lanza una herramienta de código abierto para una implementación asequible de IA

[ad_1]

Abrazando su cara pie Su última oferta, Hugging Face Genetic AI Services (HUGS), tiene como objetivo simplificar la implementación y la escala de aplicaciones de IA generativa utilizando modelos de código abierto.

HUGS se basa en tecnologías Hugging Face como Transformers y Text Generation Inference (TGI) y promete un rendimiento mejorado en varios aceleradores de hardware.

[ad_2]

Source Article Link

Categories
News

What is Hugging Face AI community and why does it matter?

What is Hugging Face AI community and why does it matter

Artificial intelligence (AI) is reshaping the way we interact with technology, and Hugging Face is at the forefront of this transformation. This platform is a hub for AI innovation, where anyone with an interest in AI, from novices to seasoned professionals, can find the tools they need to develop cutting-edge applications. Hugging Face stands out as a community-centric platform that promotes open-source collaboration, making AI more accessible and fostering a culture of shared knowledge and advancement.

The core of Hugging Face’s philosophy is to make AI available to all. It has become known as the “GitHub of machine learning,” offering a comprehensive collection of AI models, datasets, and spaces that serve as the foundational elements for users to engage with AI technology, regardless of their expertise level. This inclusivity is a testament to the platform’s commitment to democratizing AI.

One of the standout features of Hugging Face is the variety of AI models it hosts. These models are designed to handle different types of data, with unimodal models focusing on a single data type, such as text or images, and multimodal models capable of processing multiple data types simultaneously. This versatility is crucial for exploring AI’s potential to understand and interact with the world in complex ways.

How to use Hugging  Face

To help users navigate its extensive repository, Hugging Face provides intuitive tools that guide both experienced AI developers and beginners in selecting the most appropriate models for their projects. This user-friendly approach is a key aspect of the platform’s appeal, as it lowers the barrier to entry for engaging with AI.

Here are some other articles you may find of interest on the subject of large language models (LLMs) :

The importance of Datasets

Datasets play a vital role in training AI models, and Hugging Face offers an abundance of them.  Hugging Face has become an integral part of the AI landscape, particularly for its extensive resources and community-driven approach. These datasets span a wide range of domains and languages, essential for training AI models in various contexts. They form the backbone of AI learning, enabling models to improve and adapt over time. This extensive dataset library underscores Hugging Face’s commitment to fostering AI education and development, providing vital resources for both academic research and practical applications.

Another innovative aspect of Hugging Face is Spaces, a feature that allows users to deploy, showcase, and share AI-driven applications. This platform transforms theoretical AI models into tangible, interactive tools that the community can engage with. Spaces act as a crucible of innovation, where users not only demonstrate their projects but also contribute to a dynamic ecosystem of AI learning and application.

For practical insights into AI applications, the task section on Hugging Face is invaluable. It provides a window into how AI models are being utilized across different sectors, offering both inspiration and practical examples. This section serves as a repository of knowledge for those looking to understand the real-world implications of AI models, bridging the gap between theory and practice.

Understanding the commercial and ethical implications of AI is crucial, and Hugging Face addresses this through its transparent licensing information. This clarity is essential for users navigating the legal and ethical considerations of AI deployment, ensuring that projects comply with legal standards and maintain ethical integrity. Such transparency in licensing fosters responsible use and deployment of AI technologies.

The open-source nature of Hugging Face encourages users to add to the platform’s extensive model information and documentation. This collaborative approach not only improves the platform but also fosters a sense of ownership and engagement among its user base.

As AI models become as commonplace as traditional software, we are witnessing a paradigm shift in technology development. Hugging Face is spearheading this movement by providing a platform where learning, experimentation, and contribution to the advancement of AI are accessible to everyone. Engaging with Hugging Face in 2024 means being part of a progressive, collaborative community that is actively shaping the future of technology.

Filed Under: Guides, Top News





Latest timeswonderful Deals

Disclosure: Some of our articles include affiliate links. If you buy something through one of these links, timeswonderful may earn an affiliate commission. Learn about our Disclosure Policy.

Categories
News

New Intel Neural-Chat 7B LLM tops Hugging Face leaderboard

Intel Neural-Chat 7B LLM tops Hugging Face leaderboard

Intel has released a new large language model in the form of the Neural-Chat 7B a fine-tuned model based on mistralai/Mistral-7B-v0.1 on the open source dataset Open-Orca/SlimOrca. The new Intel large language model offers improved performance when compared to the original Mistrial 7B LLM and Intel has aligned it with DPO algorithm.

The success of Neural Chat 7B is partly due to its training on the Slim ARA dataset, a carefully curated collection of about 500,000 examples. This dataset is not just any random assortment of data; it’s a selection of high-quality, relevant examples that ensure the model is exposed to the best possible information. This careful curation results in a model that understands the subtleties of language, providing responses that are accurate and contextually appropriate.

At the core of Intel’s Neural Chat 7B’s training is the Direct Preference Optimization (DPO) algorithm. This technique is crucial for refining the model’s outputs to more closely align with human preferences. When interacting with Neural Chat 7B, you’ll notice that its responses are not only coherent but also finely tuned to the nuances of human conversation, thanks to the DPO algorithm.

Intel Neural Chat 7B LLM

The quality of data used for fine-tuning is vital for any language model’s performance. Intel Neural Chat 7B excels in this area with its unwavering focus on data quality. This commitment ensures that when you use the model for tasks like writing, logical reasoning, or coding, it performs with a level of sophistication that is leading the way in modern AI.

Here are some other articles you may find of interest on the subject of large language models such as Mistral 7B :

Supporting the demands of training complex language models like Neural Chat 7B is Intel’s Habana Gaudi 2 hardware platform. This robust system allows for the quick and efficient processing of large datasets, making the training process more effective and faster. This translates to quicker development cycles, which is essential in the fast-paced world of AI.

Intel has also improved the Hugging Face Transformers package, providing tools that seamlessly work with Neural Chat 7B. This enhancement simplifies the integration of the model into your projects, allowing you to focus on innovation rather than getting bogged down by technical details.

Neural Chat 7B is versatile, excelling in a range of tasks from creative writing to solving math problems, understanding language, and aiding in software development. Its flexibility is a clear indicator of the extensive training and fine-tuning it has undergone. Whether you’re creating a chatbot, a coding assistant, or an analytical tool, Neural Chat 7B is equipped to handle your needs with exceptional ability.

The approach of creating domain-specific models is crucial for leveraging the full capabilities of more compact models like Neural Chat 7B. By customizing the model for specific tasks, it can perform exceptionally well in specialized areas. This targeted strategy ensures that the model not only delivers accurate results but also provides solutions that are highly relevant to your particular challenges.

Neural Chat 7B is a significant advancement in AI development. Its meticulous training on the Slim ARA dataset, the precision of the Direct Preference Optimization algorithm, and the high-quality data it incorporates all contribute to its remarkable abilities. Combined with Intel’s powerful Habana Gaudi 2 hardware and the user-friendly Hugging Face Transformers software extension, Neural Chat 7B is ready to enhance your experience with language models. Whether used for general tasks or specialized applications, its proficiency in writing, reasoning, comprehension, and coding sets a new standard for what AI can achieve.

To learn more about the new 7B Chat Model created by Intel which has taken the large language model leaderboard on the Hugging Face website by storm jump over to the official announcement. as well as the Intel extension for Transformers GitHub repository.

Filed Under: Technology News, Top News





Latest timeswonderful Deals

Disclosure: Some of our articles include affiliate links. If you buy something through one of these links, timeswonderful may earn an affiliate commission. Learn about our Disclosure Policy.