AbiertoAIEn respuesta a preguntas de los legisladores estadounidenses, dijo que estaba comprometido a garantizar su fuerza. inteligencia artificial Las herramientas no causan daño y los empleados tienen formas de expresar sus inquietudes sobre las prácticas de seguridad.
La startup buscó tranquilizar a los legisladores sobre su compromiso con la seguridad después de que cinco senadores, incluido el senador Brian Schatz, demócrata de Hawaii, plantearon preguntas sobre las políticas de OpenAI en una carta al director ejecutivo. Sam Altman.
“Nuestra misión es garantizar que toda la humanidad se beneficie de la inteligencia artificial y estamos comprometidos a implementar estrictos protocolos de seguridad en cada etapa de nuestro proceso”, dijo el miércoles el director de estrategia, Jason Kwon, en una carta a los legisladores.
Específicamente, OpenAI dijo que continuará cumpliendo su promesa de dedicar el 20% de sus recursos informáticos a investigaciones relacionadas con la seguridad durante varios años. La empresa también prometió en su carta que no impondría acuerdos de no difamación a empleados actuales y anteriores, excepto en casos específicos de un acuerdo mutuo de no difamación. Las restricciones anteriores impuestas por OpenAI a los empleados que abandonaron la empresa han sido objeto de escrutinio por ser inusualmente restrictivas. Desde entonces, OpenAI dijo que ha cambiado sus políticas.
Altman luego explicó su estrategia en las redes sociales.
“Nuestro equipo ha trabajado con el Instituto de Seguridad de IA de EE. UU. en un acuerdo en el que brindaremos acceso temprano a nuestro próximo modelo básico para que podamos trabajar juntos para hacer avanzar la ciencia de las evaluaciones de IA”, escribió en el sitio web de X.
Algunas actualizaciones rápidas sobre seguridad en openai:
Como mencionamos en julio pasado, nos comprometemos a dedicar al menos el 20 % de los recursos informáticos a los esfuerzos de seguridad en toda la empresa.
Nuestro equipo ha trabajado con el Instituto de Seguridad de IA de EE. UU. en un acuerdo en el que proporcionaremos…
—Sam Altman (@sama) 1 de agosto de 2024
En su carta, Cowan también citó el reciente establecimiento de un Comité de Seguridad, que actualmente está pasando por una revisión de las operaciones y políticas de OpenAI.
En los últimos meses, OpenAI se ha enfrentado a una serie de controversias sobre su compromiso con la seguridad y su capacidad para capacitar a sus empleados para que hablen sobre el tema. Varios miembros clave de los equipos de seguridad han dimitido, incluido el ex cofundador y científico jefe Ilya Sutskever, junto con otro líder del equipo de la empresa dedicado a la evaluación de riesgos de seguridad a largo plazo, Jan Leike, quien ha compartido públicamente su preocupación de que la empresa está priorizando el desarrollo de productos sobre la seguridad.
© 2024 Bloomberg LP
(Esta historia no ha sido editada por el personal de NDTV y se genera automáticamente a partir de un feed sindicado).