OpenAI anuncia un nuevo equipo de seguridad y protección nacional



Abierto AI profundiza en la autogestión de la industria cuando la compañía anuncia… Renovación del equipo de seguridad y vigilanciadespués de varios Renuncias públicas Disolución del órgano de control anterior.

El Comité de Seguridad, como se le cambió el nombre, está presidido por los miembros de la junta y directores Brett Taylor (Sierra), Adam D'Angelo (Quora), Nicole Seligman y, por supuesto, el director ejecutivo de OpenAI, Sam Altman. Otros miembros incluyen a los “expertos técnicos y políticos internos” de OpenAI, incluidos los jefes de “Preparación”, “Sistemas de seguridad” y “Ciencia de alineación”.

“OpenAI recientemente comenzó a entrenar su próximo modelo de frontera y esperamos que los sistemas resultantes nos lleven al siguiente nivel de capacidades en nuestro camino hacia la inteligencia artificial general”. libros OpenAI. “Si bien estamos orgullosos de construir y lanzar modelos que son líderes en la industria en capacidades y seguridad, damos la bienvenida a un debate sólido en este momento importante”.

La primera tarea del comité es “evaluar y desarrollar aún más OpenAI Operaciones y garantías Durante los próximos 90 días”, escribió la compañía en su anuncio, con comentarios de expertos externos que ya están en la lista de supervisión externa de OpenAI, como el ex director de ciberseguridad de la NSA, Rob Joyce.

Velocidad de la luz triturable

El anuncio es una respuesta oportuna a la controversia sobre la gestión de OpenAI, aunque puede hacer poco para tranquilizar a los ojos vigilantes y a los defensores de la censura externa. Esta semana, ex miembros de la junta directiva de OpenAI Pidió una regulación gubernamental más intensiva Para el sector de la IA, señalando específicamente las malas decisiones de gestión y la cultura tóxica que Altman ha fomentado en el papel de líder de OpenAI.

See also  Netflix renueva a Emily en París para la temporada 5, así que hazte a un lado, Gabriel, estoy apoyando a su nuevo novio italiano

“Incluso con las mejores intenciones y sin supervisión externa, este tipo de autorregulación terminará siendo inaplicable, especialmente bajo la presión de incentivos masivos para obtener ganancias”, dijeron.

El nuevo comité de OpenAI ha sido arrojado directamente al fuego, con el mandato inmediato de evaluar las salvaguardas de la IA de la empresa. Pero incluso esos Puede que no sea suficiente.





Source Article Link

Leave a Comment