AbiertoAI CEO Sam Altman Ella compartió en una publicación en X esta semana que la compañía está colaborando con el Instituto de Seguridad de IA de EE. UU. y le dará a la agencia gubernamental acceso temprano al próximo modelo importante de IA para pruebas de seguridad.
Altman describió el plan como parte de un nuevo impulso más amplio para medidas de seguridad de la IA, que podría tener un impacto significativo. chat gbt Y otros AbiertoAI Esto también puede ser parte de una campaña política y de relaciones públicas contra los críticos que dicen que OpenAI ya no prioriza la seguridad de la IA.
Uno de los principales motivos de crítica es que OpenAI criatura Después de eso, la empresa disolvió en gran medida su equipo interno de seguridad de IA. Esta disolución provocó la dimisión de los principales ejecutivos de la empresa, como Jan Leike e Ilya Sutskever, que desempeñaron un papel decisivo en los primeros esfuerzos de investigación de seguridad de la empresa. Muchos empleados actuales y anteriores han cuestionado públicamente si OpenAI había decidido ignorar la seguridad en favor del desarrollo de productos.
Hay otra razón resaltada en una nota adjunta directamente a la publicación de Altman. Dijo que el año pasado comprometió el 20% de los recursos informáticos para la investigación de seguridad, pero que esa asignación en ese momento estaba destinada específicamente al mismo comité cuyos líderes abandonaron la empresa. Sin embargo, el acuerdo con el gobierno no es el único cambio real. Altman dijo que OpenAI ahora ha eliminado las cláusulas restrictivas de no difamación que desalentaban la denuncia de irregularidades.
Si el acuerdo con el Instituto de Seguridad de IA de EE. UU. es un movimiento estratégico de OpenAI para restaurar la confianza, es importante. El instituto opera bajo la supervisión del Instituto Nacional de Estándares y Tecnología (NIST) dentro del Departamento de Comercio. Ha estado desarrollando estándares y directrices para la seguridad de la IA y ya está trabajando con varias empresas importantes de tecnología e IA, como microsoft, Googlemuerto , manzanaY NVIDIA.
El acceso temprano compartido de OpenAI de su próximo modelo de IA permitirá al instituto realizar pruebas y evaluaciones de seguridad antes de su lanzamiento público. La medida tiene como objetivo garantizar que cualquier riesgo potencial se identifique y mitigue en las primeras etapas del proceso de desarrollo, en consonancia con los objetivos más amplios establecidos por la orden ejecutiva del presidente Joe Biden sobre inteligencia artificial el año pasado.
Pero ese no es el único estímulo regulatorio que OpenAI ha ofrecido en los últimos días. La compañía respaldó la nueva Ley del Futuro de la Innovación del Senado, que otorgaría al Instituto de Seguridad de la IA la responsabilidad de establecer regulaciones federales para la seguridad de la IA. La aparente conexión entre impulsar el proyecto de ley y hacer que sus modelos sean centrales para el trabajo del instituto podría verse como un intento de influir indebidamente en la regulación o un esfuerzo más amplio e inocente para promover la seguridad de la IA.
Ambos parecen plausibles y OpenAI tiene una asociación similar con la AI Safety Authority del Reino Unido. Pero nuevamente, OpenAI tiene Gastar Las actividades de lobby se han más que triplicado en el primer semestre de este año en comparación con todo el año pasado.
¿Seguro y rentable, ambos?
La asociación de OpenAI con el Instituto de Seguridad de IA de EE. UU. probablemente se juzgará por qué tan seguros sean los modelos finales y si existen restricciones reales para hacerlos más seguros. Aquí radica la verdadera pregunta para los consumidores. A medida que la IA se integra más en la vida cotidiana, la tensión entre seguridad y rentabilidad puede crecer incluso cuando OpenAI y sus competidores esperan lograr que el público confíe en ellos y en sus modelos de IA.
Obtener un sello de aprobación de un organismo gubernamental ayudaría a generar confianza, y OpenAI no querría que otras empresas lo obtengan antes que él. Involucrar a un organismo de seguridad independiente para evaluar los modelos de IA antes de su lanzamiento puede brindar una mayor garantía de que las herramientas que utiliza son seguras y confiables. Las crecientes preocupaciones sobre los problemas de la IA, como la privacidad de los datos, los prejuicios y el uso indebido intencional de la IA, pueden mitigarse mediante un enfoque proactivo. Y las presiones de OpenAI y otros esfuerzos para que estas reglas les sean favorables podrían socavar ese y todo el objetivo del AI Safety Institute si no tienen cuidado.