Mira Morattiex CTO de AbiertoAIestá recaudando dinero de capitalistas de riesgo para su nueva startup de inteligencia artificial, según fuentes familiarizadas con el asunto.
La nueva empresa pretende construir Amnistía Internacional Una fuente, que solicitó el anonimato para discutir asuntos privados, dijo que los productos se basan en modelos patentados. No está claro si Moratti asumirá el cargo de director general de la nueva empresa.
Un representante de Moratti declinó hacer comentarios.
Si bien las conversaciones aún están en las primeras etapas, la nueva empresa de Moratti podría recaudar más de 100 millones de dólares dada su reputación y el capital necesario para entrenar a los modelos, dijo una fuente, advirtiendo que las cifras aún no han sido definitivas.
Barrett Zoff, un destacado investigador que dejó OpenAI el mismo día que Moratti a finales de septiembre, también podría participar en el nuevo proyecto, añadieron las fuentes. Zoff no respondió a las solicitudes de comentarios.
The Information informó anteriormente que Zoph planea crear una nueva startup y que Murati ha contratado empleados en OpenAI para unirse a su nueva empresa.
En OpenAI, Moratti pasó más de seis años liderando proyectos transformacionales como ChatGPT y DALL-E. Fue una figura clave en la asociación multimillonaria de OpenAI con Microsoft, su mayor patrocinador financiero.
El rápido ascenso de Moratti en OpenAI ha consolidado su nombre como una de las ejecutivas más destacadas en el emergente campo de la IA.
Moratti se unió a OpenAI en junio de 2018 y fue ascendida a CTO en mayo de 2022, según su perfil de LinkedIn. Antes de unirse a OpenAI, trabajó en la startup de realidad aumentada Leap Motion y Tesla.
Ha aparecido frecuentemente junto al CEO de OpenAI. Sam Altman Como la cara pública del creador de ChatGPT. Cuando OpenAI lanzó en mayo su prototipo GPT-4o, capaz de mantener conversaciones de voz en la vida real, Moratti dirigió la presentación.
Su sorpresiva renuncia a finales de septiembre marcó la última salida de alto perfil del fabricante de ChatGPT mientras la compañía experimenta cambios importantes en su estructura administrativa, incluida la eliminación del control de la junta directiva de la organización sin fines de lucro. Moratti, quien sirvió brevemente como directora ejecutiva interina el año pasado cuando la junta directiva de la organización sin fines de lucro destituyó a Altman, ha indicado su deseo de explorar personalmente su salida.
Moratti se une a una lista cada vez mayor de ex ejecutivos de OpenAI que han lanzado nuevas empresas, incluidos competidores como Anthropic y Safe Superintelligence.
el New York Times el envió Confusión Un aviso de “cese y desista” exige que la compañía deje de usar el contenido del periódico con fines de inteligencia artificial, dijo la startup el martes, marcando la última pelea entre el editor de noticias y la compañía de inteligencia artificial.
La forma en que Perplexity utiliza su contenido, incluida la creación de resúmenes y otros tipos de resultados, viola la ley de derechos de autor, dijo el editor de noticias en la carta, cuya copia compartió con Reuters. ahora Ella se negó a proporcionar comentarios adicionales sobre este tema.
Desde la presentación ChatGPTlos editores han dado la alarma sobre los chatbots que pueden rastrear Internet para encontrar información y generar resúmenes de párrafos para el usuario.
En la carta a Perplexity fechada el 2 de octubre, The New York Times exigió que la empresa AI “cese y desista inmediatamente de todo acceso y uso no autorizado, actual y futuro, del contenido del periódico”.
También pidió a Perplexity que proporcionara información sobre cómo accedió al sitio web del editor a pesar de sus esfuerzos de bloqueo.
Según la carta, Perplexity había asegurado previamente a los editores que dejaría de utilizar tecnología de “rastreo”. A pesar de esto, el New York Times dijo que su contenido todavía parece confuso.
“No recopilamos datos para construir modelos básicos, sino que indexamos páginas web y mostramos contenido factual como citas para enriquecer las respuestas cuando un usuario hace una pregunta”, dijo Perplexity a Reuters.
La startup también dijo que planea responder antes de la fecha límite del 30 de octubre del New York Times para proporcionar la información solicitada.
El New York Times también se ocupa de Abierto AIque presentó una demanda a finales del año pasado, acusando a la empresa de utilizar millones de sus artículos periodísticos sin permiso para entrenar su chatbot de inteligencia artificial.
A principios de este año, Reuters informó que varias empresas de inteligencia artificial estaban eludiendo un estándar web utilizado por los editores para evitar la extracción de sus datos utilizados en sistemas de inteligencia artificial generativos.
Perplexity ha enfrentado acusaciones de organizaciones de medios como Forbes y Wired de plagiar su contenido, pero desde entonces ha lanzado un programa de reparto de ingresos para abordar algunas de las preocupaciones planteadas por los editores.
empresa sueca Tecnologías de punto cerouna empresa derivada de la Universidad Tecnológica de Chalmers en Gotemburgo, fue fundada por el profesor Per Stenström y el Dr. Angelos Arellakis con el objetivo de ofrecer una compresión de memoria eficiente y en tiempo real en todo el sistema de memoria. La empresa busca maximizar la eficiencia del servidor abordando los cuellos de botella de la memoria, salvando potencialmente superexpansores como microsoftMeta y GoogleAdemás de las grandes empresas, los grandes costes.
ZeroPoint afirma que su tecnología elimina hasta el 70% de los datos innecesarios en la memoria del microchip mediante una combinación de compresión ultrarrápida, compresión de datos en tiempo real y gestión eficiente de la memoria. Este enfoque maximiza el rendimiento por vatio y aborda el desafío de larga data de los cuellos de botella de la memoria que han obstaculizado la medición del rendimiento durante décadas.
Con 38 patentes ya poseídas, ZeroPoint ofrece un bloque IP de hardware para compresión y compresión de datos, acompañado de un software de gestión de memoria personalizado para la integración en unidades centrales de procesamiento (CPU) o SoC. La evaluación generalmente incluye el análisis de los índices de compresión, la simulación de la administración de la memoria y la ejecución de simulaciones arquitectónicas, todo lo cual se puede completar en unas semanas.
Reduzca los costos del servidor hasta en una cuarta parte
ZeroPoint dice que su tecnología de compresión es 1000 veces más rápida que las soluciones tradicionales y puede aumentar la capacidad de la memoria entre 2 y 4 veces, al tiempo que aumenta el rendimiento por vatio hasta en un 50%, lo que puede reducir los costos de los servidores del centro de datos hasta en un 25%.
“Nuestras tecnologías de optimización de memoria pueden aumentar la eficiencia, el rendimiento y la capacidad de las aplicaciones informáticas empresariales y de gran escala en una amplia gama de casos de uso”, dijo el director ejecutivo Klas Moreau. “Como organización, nos impulsa la ambiciosa misión de lograr esto. La tecnología es el estándar de la industria”.
Bloques y archivos Los informes indican que ZeroPoint espera ventas de 110 millones de dólares para 2029 y aspira a convertirse en un actor importante en el mercado multimillonario de la memoria. El sitio cita al CEO Klas Moreau diciendo: “Los hiperescaladores pagan una fortuna absoluta por sus GPU y sólo pueden usar la mitad para sus cargas de trabajo de IA. Nos reunimos con ellos y nos lo dicen”.
Si bien esta tecnología puede proporcionar importantes beneficios a las grandes empresas y corporaciones NVIDIA Puede que sea menos entusiasta porque puede reducir la demanda de GPU con mucha memoria.
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
ZeroPoint no es la única empresa que pretende reducir el uso de memoria en los servidores. En 2022, Mita detalló cómo A Tecnología inteligente de optimización de memoria. Estaba ahorrando a la empresa millones de dólares.
Puesta en marcha en Bristol Núcleo de fibra En una misión para reimaginar cómo se diseñan los procesadores, la compañía británica está desarrollando un chip y una tarjeta de 5 nm destinados a acelerar aplicaciones de tipo servidor sin requerir ningún cambio en el código de software existente.
La compañía afirma que al trasladar la complejidad de la gestión de la asignación de memoria del software al hardware, se pueden eliminar hasta el 80% de los ciclos de procesador normalmente necesarios para manejar las funciones de asignación de memoria. Este enfoque garantiza una integridad completa de la memoria a nivel de puerta dentro del procesador, al mismo tiempo que mejora el uso de la caché, reduce la latencia del procesamiento de eventos y reduce los requisitos generales de almacenamiento dinámico de memoria.
La arquitectura de administración de memoria de VyperCore acelera C y C++ dos veces y Python cinco veces sin modificar el código nativo, lo que la hace especialmente valiosa para manejar código no optimizado generado por IA.
De tostadora a servidor
Russell Haggar, cofundador, director ejecutivo y presidente de VyperCore, dijo: ENoticias Europa“Somos una empresa de procesadores y prometemos una velocidad 5 veces mayor sin cambiar una línea de código, con integridad de la memoria del hardware. Esto podría estar dentro de cada CPU, desde una tostadora hasta un servidor”.
VyperCore recaudó £4 millones en financiación el año pasado y actualmente está en el proceso de conseguir más inversiones para respaldar el desarrollo de su producto. La empresa también está contratando ingenieros de hardware y software, con el objetivo de duplicar su equipo en sus oficinas de Bristol y Cambridge. El primer producto de VyperCore, un procesador RISC-V de un solo núcleo llamado Akurra, actualmente se ejecuta en una FPGA. La startup planea lanzar un chip de prueba de un solo núcleo el próximo año, seguido de un chip de servidor comercial de múltiples núcleos y una tarjeta aceleradora.
Hajjar enfatiza que la tecnología VyperCore se puede integrar en una variedad de procesadores, pero el enfoque inicial está en acelerar las aplicaciones del centro de datos. “Estamos apuntando a un procesador RISC-V de cuatro núcleos y 64 bits de clase servidor, posiblemente en el N5 [5nm] Explicación del hardware de la tarjeta de servidor. Esta producción tiene como objetivo finales de 2026.
Más de TechRadar Pro
Suscríbase al boletín TechRadar Pro para recibir las principales noticias, opiniones, características y orientación que su empresa necesita para tener éxito.
Dipex DeepX es una empresa de tecnología de inteligencia artificial de Corea del Sur que se especializa en soluciones de aprendizaje profundo en industrias como sistemas autónomos, robótica y atención médica. En la reciente Embedded Vision Summit 2024, DeepX presentó sus chips de primera generación, el V1 y el M1, diseñados para diversas aplicaciones, e insinuó un próximo chip de próxima generación centrado en inteligencia artificial para aplicaciones en dispositivos y robots autónomos.
El SoC V1 (anteriormente llamado L1) presenta una unidad de procesamiento neuronal DeepX 5-TOPS combinada con CPU cuádruples RISC-V y un procesador de señal de imagen de 12 megapíxeles. Este SoC de menos de $10 se basa en SamsungLa tecnología de 28 nm de YOLO se basa en el modelo YOLO v7 a 30 fps y consume solo 1-2 W. También es compatible con los últimos algoritmos de visión por computadora de CNN y está diseñado para productos como cámaras IP, CCTV, cámaras robóticas y drones.
El M1 es un acelerador más grande diseñado para funcionar con la CPU host. Se dice que logra la mayor eficiencia en términos de costo (inferencia/$), eficiencia energética (TOPS/W) y eficiencia de rendimiento (FPS/TOPS). El rendimiento de la IA es de 25 TOPS y consume 5 vatios. Es adecuado para su uso en robótica industrial y de consumo, visión artificial, IPC y HPC necesarios para inteligencia artificial, fábricas inteligentes y computación de vanguardia.
Asociación con LG
El director ejecutivo de DeepX, Lokwon Kim, le contó a Sally Ward Foxton sobre EE veces La empresa coopera con LG Transferir módulos LLM a un chip DeepX para su uso en dispositivos móviles, automóviles y electrodomésticos.[AI in the device] “Esto realmente tiene sentido para su modelo de negocio para los LLM y es por eso que estamos colaborando”, dijo Kim. “Ofrecen su tecnología LLM para que podamos conocer las propiedades del modelo y optimizarlo para aplicaciones en el dispositivo”. El resultado será un chip NPU optimizado para ejecutar LLM en el dispositivo, pero al principio solo actuará como un acelerador. Se espera que el desarrollo de un SoC totalmente compatible con LLM lleve otros 3 a 5 años.
El siguiente chip en la hoja de ruta de DeepX es el V3, que se desarrolló en respuesta a los comentarios de clientes chinos y taiwaneses. Según se informa, el V3 contará con una NPU DeepX de doble núcleo de 15 TOPS con cuatrobrazo “Anteriormente, usábamos una CPU RISC-V, pero los clientes querían Arm, por eso apuntamos a Arm de cuatro núcleos allí”, dijo Kim a Ward-Foxton. Los clientes también querían USB 3.1, un ISP más potente, no una actualización de la NPU. Por eso lo rediseñamos.”
como EE veces “Los clientes querían CPU Arm en parte porque el ecosistema Arm puede proporcionar mejores soluciones de seguridad; muchos clientes construyen sistemas de cámaras de seguridad”, explica. “Otros clientes quieren que el robot funcione”. Sistema operativo“Que es lo que Arm admite ahora, aunque aún no ha llegado a RISC-V”.
DeepX dice que continuará ofreciendo la versión 1 basada en RISC-V junto con la versión 3 basada en Arm (cuyas muestras se esperan para fines de 2024) y ha prometido admitir ambas arquitecturas en el futuro.
Suscríbase al boletín TechRadar Pro para recibir todas las noticias, opiniones, funciones y orientación que su empresa necesita para tener éxito.
Una nueva startup llamada Juice ha anunciado una asociación con Revel, un operador de taxis expresos de Nueva York, que podría ayudar a aliviar el dolor de utilizar la red pública de carga de vehículos eléctricos gracias a cámaras inteligentes y aprendizaje automático.
A pesar de la importante mejora de los últimos años, cargar baterías de vehículos eléctricos mediante cargadores que se encuentran en la naturaleza sigue siendo una tarea confusa y, en ocasiones, muy compleja.
Muchos requieren crear una cuenta dedicada, ya sea a través de un navegador o descargando una aplicación en un teléfono inteligente, aunque las opciones de pago con un solo toque son cada vez más comunes.
A pesar de esto, esta todavía no es la experiencia perfecta que los clientes de Tesla han disfrutado desde hace mucho tiempo en la red Supercharger. Los métodos de pago se almacenan en la cuenta dentro del sistema de información y entretenimiento del automóvil, lo que significa que el propietario puede simplemente disfrutar enchufando el automóvil, cargándolo y conduciéndolo, sabiendo que la factura y los detalles del costo llegarán cada mes.
Juice and Revel quiere cambiar todo eso creando lo que llaman “Face ID para vehículos”. Aprovechando el poder de la visión por computadora, que utiliza cámaras inteligentes alimentadas por inteligencia artificial, la compañía quiere que las estaciones de carga de vehículos eléctricos puedan reconocer un vehículo, junto con su matrícula, verificar su autenticidad y luego deducir automáticamente el costo de una sesión de carga. una cuenta vinculada.
(Crédito de la imagen: Shutterstock)
“Nuestro objetivo no es crear una experiencia larga en la que nos veamos obligados a entrar, descargar una aplicación y usarla cada vez”, dijo Paul Sohi, cofundador y director de operaciones de Revel. Borde “Simplemente estamos tratando de hacer que la experiencia sea lo más fácil posible”, dijo en una entrevista reciente.
El propietario del vehículo eléctrico en cuestión seguramente tendría que escanear el código QR inicial para registrarse y luego permitir que la aplicación Juice grabe algunas imágenes de vídeo del automóvil a través de la cámara del teléfono inteligente. Pero a partir de ahí, es tan sencillo como elegir un método de pago y dejar el smartphone en el bolsillo al parar en un quiosco de Revel.
Suscríbase para recibir las últimas noticias, reseñas, opiniones, las mejores ofertas tecnológicas y más.
Reveal dice que luego puede usar la tecnología de cámaras de seguridad existente, junto con el aprendizaje automático, que reconocerá el vehículo eléctrico y luego deducirá automáticamente el monto del titular de la cuenta cuando se complete la sesión de carga, eliminando varios de esos molestos pasos de registro y pago que usted debe realizar. De lo contrario, tendría problemas. Actualmente, la mayor parte de la red pública.
Análisis: Igual que Amazon Go para la carga de coches eléctricos
(Crédito de la imagen: Mercedes-Benz EE. UU.)
De hecho, la red de carga pública sigue siendo un desastre. La ausencia de un único proveedor de servicios (a excepción de Tesla) obliga a crear múltiples cuentas para cubrir cualquier viaje largo, a pesar del trabajo que muchos fabricantes de coches eléctricos están haciendo para facilitar el proceso.
A diferencia del pago por diésel o gasolina, en las estaciones de carga públicas no hay dispositivos de pago y el software que los ejecuta suele ser poco fiable, defectuoso o completamente defectuoso.
Ahora, empresas como Kia, Nissan, Polestar y BMW ofrecen un paquete estilo suscripción, en el que el usuario configura una cuenta (completa con información de facturación) y luego usa la etiqueta RFID que se puede tocar (la aplicación también funciona) en varios cargadores. en algunas redes, y los propietarios reciben la factura final a final de mes.
Asimismo, Mercedes-Benz ofrece pago en el coche (similar a Tesla) gracias al sistema Mercedes me Charge, que se comunicará con más de 1,6 millones de puntos de recarga en todo el mundo y cargará automáticamente al usuario.
Todos estos son pasos en la dirección correcta, pero el proceso aún está lleno de problemas, el más importante de los cuales es que las redes públicas de carga no los incluyen todos en ninguno de estos paquetes. Hay demasiados de estos paquetes para combinarlos todos.
Básicamente creó jugo. Amazonas La era de la carga de vehículos eléctricos ha terminado, ya que las cámaras inteligentes impulsadas por IA detectan automáticamente la actividad del usuario y cargan en su cuenta en consecuencia. Pero esto todavía sólo funciona en la red Revel, o al menos en aquellas que adoptan esta tecnología.
Durante la vida del propietario de un automóvil eléctrico, es probable que se encuentre con cientos de proveedores de carga públicos diferentes, algunos más desconocidos que otros, especialmente si comienza a aventurarse fuera de los caminos trillados. Después de todo, si el automóvil muestra que solo le queda un cuatro por ciento de batería, el conductor recurrirá a la opción de carga que sea más cercana o más conveniente.
Las cosas están mejorando y ahora hay algunos proveedores a gran escala que dominan el panorama de carga, mientras que ahora más quioscos de carga simplemente requieren el toque de una tarjeta de crédito o débito.
Pero para que los autos eléctricos tengan alguna posibilidad de alcanzar la paridad con sus homólogos con motor de combustión interna, es necesario eliminar todos los aspectos de la ansiedad por la autonomía, y eso incluye la capacidad de cargar en cualquier lugar y en cualquier momento sin pasos de pago ni complicaciones adicionales.
Después de todo, ¿cuándo fue la última vez que planificó un viaje por carretera con paradas en gasolineras específicas?
OpenAI está en conversaciones para recaudar 6.500 millones de dólares (alrededor de 54.587 millones de rupias) de inversores a una valoración de 150.000 millones de dólares (alrededor de 12.59.714 millones de rupias), según personas familiarizadas con la situación.
La nueva valoración, una cifra que no incluye los fondos recaudados, es mucho mayor que la valoración de 86.000 millones de dólares (alrededor de 722.236 millones de rupias) de la oferta de la compañía a principios de este año, y consolida su posición como una de las nuevas empresas más valiosas del mundo.
Al mismo tiempo, Abierto AI La Compañía de las Indias Orientales de la India también está en conversaciones para recaudar 5.000 millones de dólares (alrededor de 41.990 millones de rupias) en deuda de los bancos en forma de una línea de crédito renovable, según una de las personas, quienes solicitaron el anonimato para discutir información privada.
La startup se negó a comentar sobre el asunto. Personas familiarizadas con el acuerdo indicaron que las discusiones aún están en curso y los términos pueden cambiar.
La ronda de financiación estará dirigida por Thrive Capital, informó anteriormente Bloomberg. Thrive se negó a comentar sobre la última evaluación. microsoftTambién está previsto que participe el mayor inversor de la empresa. manzana y NVIDIAHan estado en conversaciones sobre inversión.
OpenAI no es la primera gran startup tecnológica que recurre a los bancos de Wall Street en busca de crédito renovable. Un grupo de empresas de tecnología, entre ellas… Facebook – ahora Metaplataformas — Grupo AlibabaUber Technologies Inc. y DoorDash Wall Street Inc. han recurrido a líneas de crédito antes de buscar una oferta pública inicial, a menudo en parte para fortalecer las relaciones bancarias. Históricamente, las empresas han tendido a recompensar a los bancos que asumen grandes compromisos crediticios con roles en sus OPI. A cambio, los prestamistas a veces ofrecen mejores condiciones de financiación.
Fundada en 2015, OpenAI ha estado en el centro del rápido cambio de la industria tecnológica hacia la inteligencia artificial, iniciando una ola de inversión con la llegada de un chatbot fácil de usar en 2022. chat gbtLos productos de la empresa, que pueden generar imágenes realistas y textos similares a los humanos con sólo unas pocas palabras, han captado la atención tanto de consumidores como de inversores.
OpenAI ha evolucionado significativamente desde su fundación. A finales del año pasado, despidió brevemente a su director ejecutivo. Sam AltmanHoy en día, solo quedan unos pocos miembros del equipo fundador original y la empresa ha tomado medidas para reformar su junta directiva y agregarle más personal ejecutivo.
En un memorando a los empleados el mes pasado, la directora financiera de OpenAI, Sarah Fryer, dijo que la financiación cubriría la necesidad de potencia informática y otros gastos operativos, según Bloomberg. ha sido reportadoAñadió en el memorando que la startup pretende permitir a los empleados vender algunas de sus acciones en una oferta de compra a finales de este año.
La marca china Khadas es quizás mejor conocida por sus soluciones informáticas modulares, que incluyen microcomputadoras y kits de desarrollo de inteligencia artificial (EE.UU. Ella mostró su mini PC Mind en 2023 y describió la tecnología y el diseño del sistema como “excepcionales”).
Ahora, la compañía está de regreso con una nueva PC de tercera generación que se ejecuta en… IntelEl nuevo chip Lunar Lake de Huawei.
el Kit de desarrollo de PC Intel Lunar Lake AI Ya está disponible para su compra, aunque se ofrece exclusivamente a desarrolladores. Por el elevado precio de $1,199, obtienes una máquina equipada con un chip Intel Core Ultra 7 258V con gráficos Intel Arc 140V y soporte 8 kilos 10 bits Alto rango dinámico Codificación/decodificación de vídeo y AV1, 32 GB de RAM LPDDR5X de 8533 MHz, SSD PCIe 4.0 2230 de 1 TB. Se planean otras configuraciones, pero aún no están disponibles.
Unidades de conexión mental
El dispositivo tiene una variedad de puertos, incluido Thunderbolt 4 (admite transferencia de datos de hasta 40 Gbps y entrada de carga de hasta 100 W) y es capaz de manejar dos puertos USB-C. 4k Monitores de 60Hz o monitor 8K 60Hz. La mini PC también tiene un puerto USB4, un puerto HDMI 2.0, dos puertos USB 3.2 Gen2, una ranura SSD PCIe 4.0 M.2 2230 y una interfaz de expansión Mind Link.
La interfaz Mind Link actualizada ahora ofrece un ancho de banda máximo de 256GT/s, cuatro veces más rápido que Thunderbolt 4. Las unidades compatibles incluyen el Mind Dock multifunción, la eGPU Mind Graphics con GeForce RTX 4060 Ti y la próxima pantalla Mind xPlay.
La batería de reserva integrada de 5,55 Wh de la mini PC permite cambiar de módulo sin problemas sin apagar el dispositivo, afirma Khadas. Cuando se desconecta de los módulos de expansión, la PC entra en modo de espera y reanuda inmediatamente la interfaz de trabajo anterior cuando se vuelve a conectar, lo que garantiza un flujo de trabajo ininterrumpido.
El modelo de 12 mil millones de parámetros, que se basa en el modelo de texto Nemo 12B existente de Mistral, está diseñado para tareas como traducción de imágenes, identificación de objetos y respuesta a consultas relacionadas con imágenes.
Esta muestra tiene un tamaño de 24 GB y está disponible gratuitamente bajo la licencia Apache 2.0, lo que significa que cualquiera puede usarla, modificarla o comercializarla sin restricciones. Los desarrolladores pueden descargarlo desde GitHub y Hugging Face, pero aún no se han publicado demostraciones web funcionales.
Velocidad de la luz medible
Según el jefe de relaciones con desarrolladores de Mistral, Pixtral 12B pronto se integrará en el chatbot de la empresa, Le Chat, y en la plataforma API, La Platforme.
Es posible que el tweet haya sido eliminado.
Los modelos multimodales como Pixtral 12B podrían ser la próxima frontera de la IA generativa, siguiendo los pasos de herramientas como GPT-4 de OpenAI Sin embargo, existen dudas sobre las fuentes de datos utilizadas para entrenar estos modelos. Según lo informado por Tech CrunchMistral, como muchas empresas de inteligencia artificial, probablemente entrenó a Pixtral 12B utilizando grandes cantidades de datos web disponibles públicamente, una práctica que ha provocado demandas por parte de Los titulares de derechos de autor cuestionan el argumento del “uso justo” Suelen ser fabricados por empresas de tecnología.
El lanzamiento llega después de Mistral. Recaudó 645 millones de dólares en financiaciónLo que elevó su valor a 6 mil millones de dólares. Con el respaldo de Microsoft, Mistral se está posicionando como la respuesta europea a OpenAI.
Safe Superintelligence (SSI), recientemente cofundada por el ex científico jefe de OpenAI, Ilya Sutskever, ha recaudado mil millones de dólares en efectivo para ayudar a desarrollar sistemas de IA seguros que superan con creces las capacidades humanas, dijeron ejecutivos de la compañía a Reuters.
SSI, que actualmente cuenta con 10 empleados, planea utilizar el dinero para adquirir potencia informática y contratar a los mejores talentos. Se centrará en formar un equipo pequeño y de gran confianza de investigadores e ingenieros dividido entre Palo Alto, California y Tel Aviv, Israel.
La empresa se negó a revelar su valoración, pero fuentes cercanas al asunto dijeron que estaba valorada en 5.000 millones de dólares (alrededor de 41.993 millones de rupias). La financiación subraya cómo algunos inversores todavía están dispuestos a apostar fuerte por talentos excepcionales centrados en las startups. Investigación de inteligencia artificialEsto a pesar de una disminución general del interés en financiar este tipo de empresas que pueden no ser rentables durante algún tiempo, lo que ha llevado a muchos fundadores de startups a dejar sus puestos en favor de empresas tecnológicas gigantes.
Entre los inversores se encontraban importantes empresas de capital riesgo como Andreessen Horowitz, Sequoia Capital, DST Global y SV Angel. También participó en la conferencia NFDG, una sociedad de inversión administrada por Nat Friedman y el director ejecutivo de SSI, Daniel Gross.
“Es importante para nosotros estar rodeados de inversores que comprendan, respeten y apoyen nuestra misión, que es apuntar directamente a una superinteligencia segura y, especialmente, pasar dos años en investigación y desarrollo de nuestro producto antes de lanzarlo al mercado”, dijo Gross en una entrevista.
La seguridad de la IA, que se refiere a evitar que la IA cause daño, es un tema candente en medio de preocupaciones de que una IA deshonesta pueda actuar contra los intereses de la humanidad o incluso causar la extinción de los humanos.
Un proyecto de ley en California que busca imponer reglas de seguridad a las empresas ha dividido a la industria. Se oponen empresas como: AbiertoAI y Googley cuenta con el apoyo de Anthropic y Elon MuskxAI.
Sutskever, de 37 años, es uno de los tecnólogos más influyentes en el campo de la inteligencia artificial. Cofundó SSI en junio con Gross, quien anteriormente dirigió iniciativas de inteligencia artificial en Apple, y Daniel Levy, ex investigador de OpenAI. Sutskever es el científico jefe, Levy es el científico principal, mientras que Gross es responsable de la potencia informática y la recaudación de fondos.
nueva montaña
Sutskever dijo que su nuevo proyecto tenía sentido porque “identificó una montaña que era un poco diferente de aquello en lo que estaba trabajando”.
El año pasado, estuvo en la junta directiva de la empresa matriz sin fines de lucro de OpenAI, que votó a favor de destituir al director ejecutivo de OpenAI. Sam Altman Debido a un “corte de comunicaciones”.
A los pocos días, revocó su decisión y se unió a casi todos los empleados de OpenAI para firmar una carta exigiendo el regreso de Altman y la renuncia de la junta. Pero un giro de los acontecimientos disminuyó su papel en OpenAI. Fue destituido del directorio y dejó la empresa en mayo.
Después de la partida de Sutskever, la compañía desmanteló su equipo de “Superalineación”, que había estado trabajando para garantizar que la IA siguiera siendo compatible con los valores humanos en preparación para el día en que la IA supere la inteligencia humana.
A diferencia de la estructura corporativa poco convencional de OpenAI, que se implementó por razones de seguridad de la IA pero hizo posible el despido de Altman, SSI tiene una estructura de ganancias regular.
Actualmente, SSI se está centrando en gran medida en contratar personas que se ajusten a su cultura.
Gross dijo que pasan horas verificando que los candidatos tengan “buen carácter” y buscan personas con habilidades extraordinarias en lugar de enfatizar demasiado las calificaciones y la experiencia en el campo.
“Una de las cosas que nos emociona es cuando encuentras gente interesada en el trabajo, y no interesada en el espectáculo o el ruido”, añadió.
SSI dice que planea asociarse con proveedores de nube y compañías de chips para financiar sus necesidades de potencia informática, pero aún no ha decidido con qué compañías trabajará. Las nuevas empresas de IA suelen trabajar con empresas como Microsoft y Nvidia para satisfacer sus necesidades de infraestructura.
Sutskever fue uno de los primeros defensores de la escalabilidad, la hipótesis de que los modelos de IA mejorarán su rendimiento dadas cantidades masivas de potencia informática. La idea y su implementación han provocado una ola de inversiones en IA en chips, centros de datos y energía, sentando las bases para avances en IA generativa como… chat gbt.
Sutskever dijo que abordaría la expansión de manera diferente que su empleador anterior, sin compartir detalles.
“Todo el mundo se limita a decir la hipótesis de la expansión. Todo el mundo ignora la pregunta: ¿qué estamos expandiendo?” Como él dijo.
“Algunas personas pueden trabajar muchas horas y luego recorrer el mismo camino más rápido. Ese no es nuestro estilo. Pero si haces algo diferente, es posible hacer algo especial”.