OpenAI dice que está “dedicado” a garantizar que sus herramientas de IA no causen daño en una carta a los legisladores estadounidenses



AbiertoAIEn respuesta a preguntas de los legisladores estadounidenses, dijo que estaba comprometido a garantizar su fuerza. inteligencia artificial Las herramientas no causan daño y los empleados tienen formas de expresar sus inquietudes sobre las prácticas de seguridad.

La startup buscó tranquilizar a los legisladores sobre su compromiso con la seguridad después de que cinco senadores, incluido el senador Brian Schatz, demócrata de Hawaii, plantearon preguntas sobre las políticas de OpenAI en una carta al director ejecutivo. Sam Altman.

“Nuestra misión es garantizar que toda la humanidad se beneficie de la inteligencia artificial y estamos comprometidos a implementar estrictos protocolos de seguridad en cada etapa de nuestro proceso”, dijo el miércoles el director de estrategia, Jason Kwon, en una carta a los legisladores.

Específicamente, OpenAI dijo que continuará cumpliendo su promesa de dedicar el 20% de sus recursos informáticos a investigaciones relacionadas con la seguridad durante varios años. La empresa también prometió en su carta que no impondría acuerdos de no difamación a empleados actuales y anteriores, excepto en casos específicos de un acuerdo mutuo de no difamación. Las restricciones anteriores impuestas por OpenAI a los empleados que abandonaron la empresa han sido objeto de escrutinio por ser inusualmente restrictivas. Desde entonces, OpenAI dijo que ha cambiado sus políticas.

Altman luego explicó su estrategia en las redes sociales.

“Nuestro equipo ha trabajado con el Instituto de Seguridad de IA de EE. UU. en un acuerdo en el que brindaremos acceso temprano a nuestro próximo modelo básico para que podamos trabajar juntos para hacer avanzar la ciencia de las evaluaciones de IA”, escribió en el sitio web de X.

En su carta, Cowan también citó el reciente establecimiento de un Comité de Seguridad, que actualmente está pasando por una revisión de las operaciones y políticas de OpenAI.

See also  Los diseños de diseño del Moto G 5G (2025) se filtraron en línea; Se sugiere una configuración de cámara trasera triple

En los últimos meses, OpenAI se ha enfrentado a una serie de controversias sobre su compromiso con la seguridad y su capacidad para capacitar a sus empleados para que hablen sobre el tema. Varios miembros clave de los equipos de seguridad han dimitido, incluido el ex cofundador y científico jefe Ilya Sutskever, junto con otro líder del equipo de la empresa dedicado a la evaluación de riesgos de seguridad a largo plazo, Jan Leike, quien ha compartido públicamente su preocupación de que la empresa está priorizando el desarrollo de productos sobre la seguridad.

© 2024 Bloomberg LP

(Esta historia no ha sido editada por el personal de NDTV y se genera automáticamente a partir de un feed sindicado).





Source Article Link

Leave a Comment