Un hacker robó detalles sobre las tecnologías de inteligencia artificial de OpenAI a principios del año pasado. New York Times Los informes dicen que el cibercriminal robó información confidencial de un foro de discusión donde los empleados hablaban sobre los últimos modelos de la compañía.
New York Times OpenAI se ha mantenido callado sobre la fuente de esta noticia, afirmando que “dos personas con conocimiento del incidente” revelaron el asunto. Sin embargo, la compañía confirmó que el cibercriminal sólo hackeó el foro, no las plataformas que soportan los algoritmos y el marco de IA de OpenAI.
Según se informa, OpenAI reveló el hack a sus empleados durante una reunión en abril de 2023. También informó del asunto a la junta directiva. Sin embargo, los ejecutivos de OpenAI decidieron no compartir la noticia públicamente.
¿Por qué OpenAI mantuvo el truco en secreto?
de acuerdo a New York TimesOpenAI no reveló el hack al público porque había información disponible sobre los clientes. No robado.
La compañía tampoco compartió el hack con el FBI ni con ninguna otra agencia policial.
Velocidad de la luz medible
El periódico dijo: “Los ejecutivos no consideraron el incidente como una amenaza a la seguridad nacional porque creían que el hacker era un individuo privado sin vínculos conocidos con un gobierno extranjero”.
New York Times' Algunos empleados de OpenAI han expresado temor de que adversarios en China puedan robar los secretos de IA de la compañía, lo que podría representar una amenaza para la seguridad nacional de Estados Unidos, dicen las fuentes.
Se dice que Leopold Aschenbrenner, líder del equipo de hiperalineación en OpenAI (una unidad centrada en garantizar que la IA no se salga de control) en ese momento, compartía los mismos sentimientos sobre la mala seguridad y ser un blanco fácil para los adversarios extranjeros.
Aschenbrenner dijo Fue despedido a principios de este año. Porque compartió un documento interno con tres investigadores externos para obtener sus “comentarios”. Señala que su expulsión fue injusta; Escaneó el documento en busca de información confidencial y agregó que era normal que los empleados de OpenAI recurrieran a otros expertos en busca de una segunda opinión.
pero, New York Times Señala que los estudios de Anthropic y OpenAI revelan que la IA “no es significativamente más peligrosa” que los motores de búsqueda como Google.
Sin embargo, las empresas de inteligencia artificial deberían garantizar que sus medidas de seguridad sean estrictas. Los legisladores están presionando para que se regule Que impone fuertes multas a las empresas que utilicen tecnologías de inteligencia artificial que causen daño a la sociedad.