IA líquida, con sede en Massachusetts inteligencia artificial (IA), los primeros modelos de inteligencia artificial generativa que no se basan en la arquitectura de transformadores existente. Apodado Modelo de Fundación Fluida (LFM), la nueva arquitectura se aleja de los Transformadores Generativos Preentrenados (GPT) que son la base de modelos de IA populares como gpto Series de OpenAI, Gemini, Copilot y más. La startup afirma que sus nuevos modelos de IA se basan en los primeros principios y que superan a los modelos de lenguajes grandes (LLM) en un segmento de tamaño similar.
Nuevos modelos de base Liquid AI
La startup fue cofundada por investigadores del Laboratorio de Inteligencia Artificial y Ciencias de la Computación (CSAIL) del MIT en 2023, y su objetivo era construir una arquitectura de última generación para modelos de IA que pudiera funcionar a un nivel similar o superior. GPT. .
Estos nuevos LFM son disponible En tres tamaños de parámetros 1.3B, 3.1B y 40.3B. El último es un modelo de Mezcla de Expertos (MoE), lo que significa que consta de diferentes modelos de lenguaje más pequeños y tiene como objetivo abordar tareas más complejas. El hardware LFM ahora está disponible en Liquid Playground de la compañía, Lambda para Chat UI y API, Perplexity Labs y pronto se agregará a Cerebras Inference. Además, los modelos de IA están optimizados para Nvidia, AMD, Qualcomm, Cerebras, manzana dispositivos, dijo la compañía.
Los LFM también se diferencian significativamente de la tecnología GPT. La empresa confirmó que estos modelos se construyeron según los primeros principios. Los primeros principios son esencialmente un enfoque de resolución de problemas en el que la tecnología compleja se descompone en sus fundamentos y luego se construye a partir de ahí.
Según la startup, estos nuevos modelos de IA se basan en los llamados módulos computacionales. En pocas palabras, se trata de un rediseño del sistema de tokens; en cambio, la empresa utiliza el término sistema líquido. Estos contienen información extensa con énfasis en maximizar la capacidad cognitiva y el pensamiento. La startup afirma que este nuevo diseño ayuda a reducir los costos de memoria durante la inferencia y aumenta el rendimiento en video, audio, texto, series temporales y señales.
La compañía también afirma que la ventaja de los modelos de IA basados en Liquid es que su arquitectura se puede optimizar automáticamente para una plataforma particular en función de sus requisitos y el tamaño de la caché de inferencia.
Aunque las ostras de la startup son altas, su rendimiento y eficiencia sólo se pueden medir cuando los desarrolladores y las organizaciones comiencen a utilizarlas en sus flujos de trabajo de IA. La startup no reveló la fuente de sus conjuntos de datos ni ninguna medida de seguridad agregada a los modelos de IA.