Categories
News

OpenAI disuelve su equipo de seguridad de alto nivel tras la salida del científico jefe Sutskever

[ad_1]

OpenAI ha disuelto efectivamente un equipo centrado en garantizar la seguridad de futuros sistemas de IA superpoderosos, tras la salida de los líderes del grupo, incluido el cofundador y científico jefe de OpenAI, Ilya Sutskever.

En lugar de mantener el llamado Super Compliance Team como una entidad independiente, OpenAI ahora está integrando más profundamente al grupo en sus esfuerzos de investigación para ayudar a la compañía a alcanzar sus objetivos de seguridad, dijo la compañía a Bloomberg News. El equipo se formó hace menos de un año bajo el liderazgo de Sutskever y Jan Leike, otro veterano de OpenAI.

La decisión de repensar el equipo se produce cuando una serie de salidas recientes de OpenAI reavivan preguntas sobre el enfoque de la compañía para equilibrar la velocidad y la seguridad en el desarrollo de sus productos de IA. Sutskever, un investigador muy respetado, anunció el martes que dejaría OpenAI después de haber estado en desacuerdo con el director ejecutivo Sam Altman sobre la rapidez con la que se debería desarrollar la IA.

Leike reveló su partida poco después con una breve publicación en las redes sociales. “He presentado mi dimisión”, dijo. Para Leike, la salida de Sutskever fue el colmo después de desacuerdos con la empresa, según una persona familiarizada con la situación que pidió el anonimato para poder discutir conversaciones privadas.

En un comunicado el viernes, Laiki dijo que el equipo de Super Alineación estaba luchando por recursos. “Durante los últimos meses, mi equipo ha estado navegando contra el viento. A veces teníamos dificultades con la informática y cada vez era más difícil llevar a cabo esta importante investigación”, escribió Leike en X.

Horas más tarde, Altman respondió a la publicación de Likee. “Tiene razón, tenemos mucho que hacer. Estamos comprometidos a hacerlo”, escribió Altman en X.

Otros miembros del equipo de Superalignment también abandonaron la empresa en los últimos meses. OpenAI despidió a Leopold Aschenbrenner y Pavel Ismailov. Anteriormente se informó sobre su partida. Ismailov fue expulsado del equipo antes de su salida, según una persona familiarizada con el asunto. Aschenbrenner e Ismailov no respondieron a las solicitudes de comentarios.

John Shulman, cofundador de la startup cuya investigación se centra en grandes modelos de lenguaje, será el líder científico del trabajo de alineación de OpenAI en el futuro, dijo la compañía. Por otra parte, OpenAI dijo en una publicación de blog que ha designado al director de investigación Jacob Paczucki para asumir el papel de Sutskever como científico jefe.

“Tengo mucha confianza en que nos llevará a lograr un progreso rápido y seguro hacia nuestra misión de garantizar que todos se beneficien de la inteligencia artificial general”, dijo Altman en un comunicado el martes sobre el nombramiento de Paciocchi. AGI, o inteligencia artificial general, se refiere a la inteligencia artificial que puede desempeñarse tan bien o mejor que los humanos en la mayoría de las tareas. La inteligencia general artificial (AGI) aún no existe, pero crearla es parte de la misión de la empresa.

OpenAI también cuenta con empleados involucrados en trabajos relacionados con la seguridad de la IA en equipos de toda la empresa, así como equipos individuales centrados en la seguridad. El primero, el Equipo de Preparación, se lanzó en octubre pasado y se centra en analizar y tratar de protegerse de posibles “riesgos catastróficos” de los sistemas de IA.

El objetivo del Súper Equipo de Alineación era evitar amenazas de largo alcance. OpenAI anunció la formación del Super Alignment Team en julio pasado, diciendo que se centraría en cómo controlar y garantizar la seguridad de futuros programas de IA que sean más inteligentes que los humanos, algo que la compañía ha declarado durante mucho tiempo como un objetivo tecnológico. En el anuncio, OpenAI dijo que dedicaría el 20% de su potencia informática en ese momento al trabajo del equipo.

En noviembre, Sutskever fue uno de varios miembros de la junta directiva de OpenAI que tomaron medidas para destituir a Altman, una decisión que provocó un torbellino de cinco días en la empresa. Greg Brockman, director de OpenAI, renunció en protesta, los inversores se rebelaron y, en cuestión de días, casi todos los 770 empleados de la startup habían firmado una carta amenazando con renunciar a menos que Altman fuera reintegrado. En un cambio notable, Sutskever también firmó la carta y dijo que lamentaba su participación en el derrocamiento de Altman. Poco después, Altman fue reintegrado.

En los meses posteriores a la salida y el regreso de Altman, Sutskever desapareció en gran medida de la vista del público, lo que generó especulaciones sobre su papel continuo en la empresa. Sutskever también dejó de trabajar en la oficina de OpenAI en San Francisco, según una persona familiarizada con el asunto.

En su declaración, Leike dijo que su salida se produjo después de una serie de desacuerdos con OpenAI sobre las “prioridades centrales” de la compañía, que en su opinión no se centraban lo suficiente en las medidas de seguridad relacionadas con la creación de una IA que pueda ser más capaz que los humanos. .

En una publicación a principios de esta semana anunciando su partida, Sutskever dijo que estaba “seguro” de que OpenAI desarrollaría AGI que sea “segura y útil” bajo su liderazgo actual, incluido Altman.

© 2024 Bloomberg LP


(Esta historia no ha sido editada por el personal de NDTV y se genera automáticamente a partir de un feed sindicado).

Los enlaces de afiliados pueden generarse automáticamente; consulte nuestro sitio web Declaración de ética Para detalles.

[ad_2]

Source Article Link

Categories
Life Style

El científico jefe de OpenAI, Ilya Sutskever, se marcha. ¿Pero qué vio?

[ad_1]

Ilya Sutskever se va Abierto AIY tenemos preguntas. Uno en particular.

La medida fue anunciada el martes X por la noche.El científico jefe de la compañía dijo que él mismo tomó la decisión de dejar el trabajo.

“La trayectoria de la empresa ha sido nada menos que milagrosa, y estoy seguro de que OpenAI creará AGI que sea segura y útil bajo el liderazgo de @sama, @gdb, @miramurati y ahora, bajo el excelente liderazgo de investigación de @merettm”. “Ha sido un honor y un privilegio trabajar juntos, y los extrañaré muchísimo a todos”, escribió Sutskever, y agregó que su próximo esfuerzo es un proyecto que es “muy personalmente significativo” para él, y que los detalles llegarán “a su debido tiempo”. “

CEO de OpenAI Publicado por Sam Altman También sobre la medida, llamando a Sutskever “fácilmente una de las mentes más brillantes de nuestra generación”.

“OpenAI no sería lo que es sin él. Aunque tiene algo personalmente significativo en lo que seguir trabajando, siempre estaré agradecido por lo que ha hecho aquí y comprometido a terminar el trabajo que comenzamos juntos. Y estoy muy feliz por “Eso”, escribió. Un genio verdaderamente notable y alguien que está profundamente centrado en lograr el mejor futuro para la humanidad.

Altman también señaló que Jacob Paczucki, director de investigación de OpenAI, será el próximo científico jefe de OpenAI.

Velocidad de la luz triturable

Si bien tanto Altman como Sutskever han sugerido que la partida de Sutskever tiene algo que ver con su ambición de hacer un proyecto con significado personal (ambos usan exactamente la misma frase), es difícil no conectar la medida con el reciente proyecto OpenAI. Crisis de liderazgoen el que Altman fue despedido temporalmente de la empresa, con Sutskever liderando el movimiento (antes de dar marcha atrás y decir que… Lamentó profundamente la expulsión de Altman).

Algo andaba mal y era tan obvio que Internet convirtió la situación en un meme. “¿Qué vio Elías?” Una vez que lo señalas El ex inversor de OpenAI y ahora crítico Elon Musk señala la teoría (¿conspirativa?) de que Sutskever vio algo preocupante en el liderazgo de Altman, lo que lo llevó a apoyar inicialmente el derrocamiento de Altman. La pregunta, en broma o no, se planteó inmediatamente como respuesta a ambas Cucharas de succión Y altmanPublicaciones en X.

Sólo quedó Sutskever; Jan Leek, un investigador que codirigió el equipo de Superalignment en OpenAI y trabajó en problemas de “guía y control” en inteligencia artificial más inteligente que los humanos, también dejó la empresa. La madrugada del miércoles simplemente tuiteó: “He dimitido”.

Musk explicó sus detalles Preocupaciones sobre OpenAI En una demanda contra la empresa en la que una vez invirtió. En la demanda, exige que OpenAI vuelva a ser una organización sin fines de lucro, argumentando que el último modelo de IA de la compañía es demasiado poderoso para ser propiedad (sustancialmente) de Microsoft, que tiene una gran participación en OpenAI. No está claro exactamente cuál es la postura de Sutskever sobre este tema.

Dado el tono de la publicación de Sutskever y Altman, es poco probable que descubramos (pronto) las complejidades de la salida de Sutskever de OpenAI. Sin embargo, será interesante ver qué “personalmente significativo” será el nuevo proyecto de Sutskever.

Con toda la agitación que ocurre dentro de OpenAI, la compañía parece estar en una trayectoria ascendente, habiendo… Lanzado recientemente El modelo de IA más potente disponible al público hasta la fecha. GPT-4o.



[ad_2]

Source Article Link