Categories
News

Los denunciantes de OpenAI alegan que la empresa obligó a los empleados a firmar acuerdos de confidencialidad “ilegalmente restrictivos”: informe

[ad_1]

Abierto AI Según se informa, Facebook ha sido acusado de utilizar acuerdos de confidencialidad “ilegalmente restrictivos” por un grupo de denunciantes, que escribieron una carta a la Comisión de Bolsa y Valores de Estados Unidos (SEC), instando a la agencia a tomar medidas “rápidas y agresivas” para detener estos … Práctica dentro de la empresa. El mes pasado, un grupo de empleados anónimos anteriores y actuales de la empresa escribieron una carta abierta destacando la falta de supervisión en la creación de modelos seguros de IA e instando a los empleadores a crear mejores políticas para proteger a los denunciantes.

Los denunciantes dicen que los acuerdos de confidencialidad de OpenAI son restrictivos

El Washington Post obtuvo carta De un grupo de personas anónimas que se describen a sí mismos como denunciantes, dirigido al presidente de la SEC, Gary Gensler. La carta afirma que OpenAI ha pedido a sus empleados que firmen acuerdos de confidencialidad ilegalmente restrictivos. La carta establece que estos NDA prohíben y disuaden tanto a los empleados como a los inversores de comunicarse con la SEC sobre violaciones de seguridad.

La carta afirmaba que el acuerdo de confidencialidad exigía que los empleados e inversores de la empresa obtuvieran aprobación antes de ponerse en contacto con las agencias federales. Según se informa, el denunciante también envió una queja formal por separado sobre OpenAI junto con documentos como prueba de las irregularidades de la empresa.

En la carta, el grupo instó a la Comisión de Bolsa y Valores a iniciar una investigación sobre el asunto. Un portavoz del senador Chuck Grassley dijo: Decir TechCrunch informó que la carta llegó a la Comisión de Bolsa y Valores y se enviaron copias al Congreso.

Los denunciantes también dijeron que había una necesidad urgente de intervención, alegando que había graves riesgos asociados con la construcción de sistemas de inteligencia artificial y que las irregularidades en la empresa requerían que los empleados pudieran comunicarse con las instituciones federales. No se pudo confirmar si los denunciantes trabajan actualmente en OpenAI o si son ex empleados.

El mes pasado, un grupo de empleados anteriores y actuales de OpenAI libros Una carta abierta advierte sobre los peligros de la inteligencia artificial y la necesidad de un mejor escrutinio al desarrollar dichas tecnologías. La carta también destacó que la supervisión del asunto era mínima y que el personal necesitaba mejores políticas para proteger a los denunciantes para que pudieran salir y hablar libremente. Recientemente, una empresa separada emitió un informe También afirmó que los empleados de OpenAI encontraron inadecuado el protocolo de seguridad de GPT-4o.

Para obtener lo último Noticias de tecnología Y ReseñasSiga Gadgets 360 en X, Facebook, WhatsApp, Hilos Y noticias de GooglePara ver los últimos vídeos sobre herramientas y técnicas, suscríbete a nuestro canal. Canal de YoutubeSi quieres saber todo sobre los top influencers, sigue nuestra web ¿Quién es 360? en Instagram Y YouTube.


La Federación de Cámaras de Comercio e Industria de la India incluirá propuestas a favor de blockchain antes del próximo presupuesto federal: detalles



[ad_2]

Source Article Link

Categories
Life Style

Los denunciantes de OpenAI piden a la SEC que investigue a la empresa de IA

[ad_1]

Los denunciantes de OpenAI están pidiendo a la Comisión de Bolsa y Valores (SEC) que abra una investigación sobre el gigante de la IA.

En una carta de un denunciante obtuve El Correo de WashingtonLos denunciantes afirman que OpenAI violó las leyes federales al impedirles hablar públicamente sobre cuestiones de seguridad relacionadas con la tecnología.

Ofertas de Prime Day que puedes comprar ahora

Nuestro equipo de marketing selecciona los productos disponibles para comprar aquí a través de enlaces de afiliados. Si compra algo a través de los enlaces de nuestro sitio, Mashable puede ganar una comisión de afiliado.

La carta explica más sobre la sorprendente falta de transparencia de OpenAI. La compañía ha sido objeto de escrutinio durante el año pasado por parte de los críticos, así como… Ex ejecutivosquien pidió una mayor regulación gubernamental de la empresa y de la industria de la IA en su conjunto.

Carta de denuncia de irregularidades de OpenAI

sido obtenido antes El Correo de WashingtonLa carta de siete páginas alegaba que OpenAI amenazó a los empleados por su participación en procedimientos de denuncia de irregularidades legalmente protegidos.

Velocidad de la luz medible

Según la carta, OpenAI impuso acuerdos laborales a sus empleados, exigiendo que los empleados informaran a la empresa si querían hablar con las autoridades federales como denunciantes. Además, si un empleado de OpenAI decide seguir este camino, la empresa le exige “renunciar a sus derechos federales” a cualquier compensación de denunciante a la que tenga derecho.

Las agencias gubernamentales suelen recompensar a los denunciantes con compensaciones económicas. Por ejemplo, tanto el Servicio de Impuestos Internos como la Comisión de Bolsa y Valores ofrecen un porcentaje de dos dígitos de cualquier dinero recaudado por las agencias como resultado de la información proporcionada por un denunciante. El acuerdo de empleados de OpenAI establece que los empleados no pueden cobrar dicha compensación.

Si bien quizás se podrían ver las preocupaciones de OpenAI sobre la protección de su tecnología, la carta continúa compartiendo que el acuerdo de empleados de OpenAI ni siquiera proporcionaba exenciones con respecto a las divulgaciones hechas por denunciantes a la SEC sobre violaciones de valores.

La carta del denunciante llega pocos meses después de su publicación. abierto Anteriormente, cuando un empleado de OpenAI dejaba la empresa, se le otorgaban acuerdos de confidencialidad y no difamación. OpenAI afirmaba que estos empleados “perderán todo el capital adquirido que hayan adquirido durante su tiempo en la empresa” si no firman los documentos.

Mientras que el director ejecutivo de OpenAI, Sam Altman Cierto En estos informes, dijo que la empresa no los implementó y que eliminaría estas condiciones de los documentos. Sin embargo, estas últimas revelaciones en la carta del denunciante muestran que el problema de los trámites de salida no fue un hecho aislado para la empresa de IA.



[ad_2]

Source Article Link

Categories
News

Empleados de OpenAI y Google DeepMind advierten sobre los riesgos de la IA y exigen mejores políticas para proteger a los denunciantes

[ad_1]

AbiertoAI Y Google DeepMind Se encuentra entre las principales empresas de tecnología a la vanguardia de la construcción de sistemas y capacidades de inteligencia artificial. Sin embargo, varios empleados actuales y anteriores de estas organizaciones han firmado una carta abierta afirmando que hay poca supervisión sobre la construcción de estos sistemas y que no se presta suficiente atención a los principales riesgos que plantea esta tecnología. La carta abierta fue respaldada por dos de los tres “padrinos” de Amnistía Internacional, Geoffrey Hinton y Yoshua Bengio, y busca implementar mejores políticas para proteger a los denunciantes frente a los empleadores.

Los empleados de OpenAI y Google DeepMind exigen el derecho a advertir sobre la IA

el Carta abierta Afirma que fue escrito por empleados actuales y anteriores de las principales empresas de IA que creen en el potencial de la IA para ofrecer beneficios sin precedentes a la humanidad. También señala los riesgos que plantea la tecnología, que incluyen aumentar la desigualdad social, difundir información errónea y manipulación, e incluso perder el control de los sistemas de inteligencia artificial que podrían conducir a la extinción humana.

La carta abierta destaca que la estructura de autogestión implementada por estas gigantescas empresas tecnológicas es ineficaz para garantizar el control de estos riesgos. También afirmó que los “fuertes incentivos financieros” incentivan a las empresas a pasar por alto el peligro potencial que pueden causar los sistemas de IA.

La carta abierta afirmaba que las empresas de IA ya son conscientes de las capacidades, limitaciones y niveles de riesgo de los diferentes tipos de daño de la IA, y la carta abierta cuestiona su intención de tomar medidas correctivas. “Actualmente sólo tienen compromisos débiles para compartir parte de esta información con los gobiernos, no con la sociedad civil. No creemos que se pueda confiar en que todos la compartan voluntariamente”.

La carta abierta planteaba cuatro exigencias a los empresarios. En primer lugar, los empleados quieren que las empresas no celebren ni hagan cumplir ningún acuerdo que prohíba sus críticas sobre preocupaciones de riesgo. En segundo lugar, exigían un proceso anónimo y verificable para que los empleados actuales y anteriores plantearan sus preocupaciones sobre riesgos a la junta directiva de la empresa, a los reguladores y a una organización independiente adecuada.

El personal también insta a las organizaciones a desarrollar una cultura de crítica abierta. Finalmente, la carta abierta destaca que los empleadores no deben tomar represalias contra empleados actuales y anteriores que compartan públicamente información confidencial relacionada con riesgos después de que otras operaciones fracasen.

Un total de 13 empleados actuales y anteriores de OpenAI y Google DeepMind firmaron la carta. Además de los “padrinos” de la IA, el informático británico Stuart Russell también apoyó la medida.

Un ex empleado de OpenAI habla sobre los riesgos de la IA

Uno de los ex empleados de OpenAI que firmó la carta abierta, Daniel Cocotaylo, también hizo una serie de Soportes en X (antes Twitter), destacando su experiencia en la empresa y los riesgos de la inteligencia artificial. Afirmó que cuando renunció a la empresa le pidieron que firmara una cláusula de no menosprecio para impedirle decir algo crítico hacia la empresa. También afirmó que la empresa amenazó a Kokotaglo con retirarle sus acciones adquiridas por negarse a firmar el acuerdo.

Cocotaylo afirmó que las redes neuronales para sistemas de inteligencia artificial crecen rápidamente a partir de los grandes conjuntos de datos que reciben. Agregó que no existen procedimientos suficientes para monitorear los riesgos.

“Hay muchas cosas que no entendemos sobre cómo funcionan estos sistemas y si seguirán siendo compatibles con los intereses humanos a medida que se vuelvan más inteligentes y tal vez superen el nivel de inteligencia humana en todos los ámbitos”, añadió.

En particular, OpenAI también es edificio Model Spec, un documento a través del cual pretende guiar mejor a la empresa en la construcción de tecnología de IA ética. Últimamente también criatura Comité de Seguridad y Vigilancia. Cocotaylo elogió estas promesas en una publicación.

[ad_2]

Source Article Link