OpenAI ha disuelto efectivamente un equipo centrado en garantizar la seguridad de futuros sistemas de IA superpoderosos, tras la salida de los líderes del grupo, incluido el cofundador y científico jefe de OpenAI, Ilya Sutskever.
En lugar de mantener el llamado Super Compliance Team como una entidad independiente, OpenAI ahora está integrando más profundamente al grupo en sus esfuerzos de investigación para ayudar a la compañía a alcanzar sus objetivos de seguridad, dijo la compañía a Bloomberg News. El equipo se formó hace menos de un año bajo el liderazgo de Sutskever y Jan Leike, otro veterano de OpenAI.
La decisión de repensar el equipo se produce cuando una serie de salidas recientes de OpenAI reavivan preguntas sobre el enfoque de la compañía para equilibrar la velocidad y la seguridad en el desarrollo de sus productos de IA. Sutskever, un investigador muy respetado, anunció el martes que dejaría OpenAI después de haber estado en desacuerdo con el director ejecutivo Sam Altman sobre la rapidez con la que se debería desarrollar la IA.
Leike reveló su partida poco después con una breve publicación en las redes sociales. “He presentado mi dimisión”, dijo. Para Leike, la salida de Sutskever fue el colmo después de desacuerdos con la empresa, según una persona familiarizada con la situación que pidió el anonimato para poder discutir conversaciones privadas.
En un comunicado el viernes, Laiki dijo que el equipo de Super Alineación estaba luchando por recursos. “Durante los últimos meses, mi equipo ha estado navegando contra el viento. A veces teníamos dificultades con la informática y cada vez era más difícil llevar a cabo esta importante investigación”, escribió Leike en X.
Horas más tarde, Altman respondió a la publicación de Likee. “Tiene razón, tenemos mucho que hacer. Estamos comprometidos a hacerlo”, escribió Altman en X.
Otros miembros del equipo de Superalignment también abandonaron la empresa en los últimos meses. OpenAI despidió a Leopold Aschenbrenner y Pavel Ismailov. Anteriormente se informó sobre su partida. Ismailov fue expulsado del equipo antes de su salida, según una persona familiarizada con el asunto. Aschenbrenner e Ismailov no respondieron a las solicitudes de comentarios.
John Shulman, cofundador de la startup cuya investigación se centra en grandes modelos de lenguaje, será el líder científico del trabajo de alineación de OpenAI en el futuro, dijo la compañía. Por otra parte, OpenAI dijo en una publicación de blog que ha designado al director de investigación Jacob Paczucki para asumir el papel de Sutskever como científico jefe.
“Tengo mucha confianza en que nos llevará a lograr un progreso rápido y seguro hacia nuestra misión de garantizar que todos se beneficien de la inteligencia artificial general”, dijo Altman en un comunicado el martes sobre el nombramiento de Paciocchi. AGI, o inteligencia artificial general, se refiere a la inteligencia artificial que puede desempeñarse tan bien o mejor que los humanos en la mayoría de las tareas. La inteligencia general artificial (AGI) aún no existe, pero crearla es parte de la misión de la empresa.
OpenAI también cuenta con empleados involucrados en trabajos relacionados con la seguridad de la IA en equipos de toda la empresa, así como equipos individuales centrados en la seguridad. El primero, el Equipo de Preparación, se lanzó en octubre pasado y se centra en analizar y tratar de protegerse de posibles “riesgos catastróficos” de los sistemas de IA.
El objetivo del Súper Equipo de Alineación era evitar amenazas de largo alcance. OpenAI anunció la formación del Super Alignment Team en julio pasado, diciendo que se centraría en cómo controlar y garantizar la seguridad de futuros programas de IA que sean más inteligentes que los humanos, algo que la compañía ha declarado durante mucho tiempo como un objetivo tecnológico. En el anuncio, OpenAI dijo que dedicaría el 20% de su potencia informática en ese momento al trabajo del equipo.
En noviembre, Sutskever fue uno de varios miembros de la junta directiva de OpenAI que tomaron medidas para destituir a Altman, una decisión que provocó un torbellino de cinco días en la empresa. Greg Brockman, director de OpenAI, renunció en protesta, los inversores se rebelaron y, en cuestión de días, casi todos los 770 empleados de la startup habían firmado una carta amenazando con renunciar a menos que Altman fuera reintegrado. En un cambio notable, Sutskever también firmó la carta y dijo que lamentaba su participación en el derrocamiento de Altman. Poco después, Altman fue reintegrado.
En los meses posteriores a la salida y el regreso de Altman, Sutskever desapareció en gran medida de la vista del público, lo que generó especulaciones sobre su papel continuo en la empresa. Sutskever también dejó de trabajar en la oficina de OpenAI en San Francisco, según una persona familiarizada con el asunto.
En su declaración, Leike dijo que su salida se produjo después de una serie de desacuerdos con OpenAI sobre las “prioridades centrales” de la compañía, que en su opinión no se centraban lo suficiente en las medidas de seguridad relacionadas con la creación de una IA que pueda ser más capaz que los humanos. .
En una publicación a principios de esta semana anunciando su partida, Sutskever dijo que estaba “seguro” de que OpenAI desarrollaría AGI que sea “segura y útil” bajo su liderazgo actual, incluido Altman.
© 2024 Bloomberg LP
(Esta historia no ha sido editada por el personal de NDTV y se genera automáticamente a partir de un feed sindicado).