AbiertoAI Y Google DeepMind Se encuentra entre las principales empresas de tecnología a la vanguardia de la construcción de sistemas y capacidades de inteligencia artificial. Sin embargo, varios empleados actuales y anteriores de estas organizaciones han firmado una carta abierta afirmando que hay poca supervisión sobre la construcción de estos sistemas y que no se presta suficiente atención a los principales riesgos que plantea esta tecnología. La carta abierta fue respaldada por dos de los tres “padrinos” de Amnistía Internacional, Geoffrey Hinton y Yoshua Bengio, y busca implementar mejores políticas para proteger a los denunciantes frente a los empleadores.
Los empleados de OpenAI y Google DeepMind exigen el derecho a advertir sobre la IA
el Carta abierta Afirma que fue escrito por empleados actuales y anteriores de las principales empresas de IA que creen en el potencial de la IA para ofrecer beneficios sin precedentes a la humanidad. También señala los riesgos que plantea la tecnología, que incluyen aumentar la desigualdad social, difundir información errónea y manipulación, e incluso perder el control de los sistemas de inteligencia artificial que podrían conducir a la extinción humana.
La carta abierta destaca que la estructura de autogestión implementada por estas gigantescas empresas tecnológicas es ineficaz para garantizar el control de estos riesgos. También afirmó que los “fuertes incentivos financieros” incentivan a las empresas a pasar por alto el peligro potencial que pueden causar los sistemas de IA.
La carta abierta afirmaba que las empresas de IA ya son conscientes de las capacidades, limitaciones y niveles de riesgo de los diferentes tipos de daño de la IA, y la carta abierta cuestiona su intención de tomar medidas correctivas. “Actualmente sólo tienen compromisos débiles para compartir parte de esta información con los gobiernos, no con la sociedad civil. No creemos que se pueda confiar en que todos la compartan voluntariamente”.
La carta abierta planteaba cuatro exigencias a los empresarios. En primer lugar, los empleados quieren que las empresas no celebren ni hagan cumplir ningún acuerdo que prohíba sus críticas sobre preocupaciones de riesgo. En segundo lugar, exigían un proceso anónimo y verificable para que los empleados actuales y anteriores plantearan sus preocupaciones sobre riesgos a la junta directiva de la empresa, a los reguladores y a una organización independiente adecuada.
El personal también insta a las organizaciones a desarrollar una cultura de crítica abierta. Finalmente, la carta abierta destaca que los empleadores no deben tomar represalias contra empleados actuales y anteriores que compartan públicamente información confidencial relacionada con riesgos después de que otras operaciones fracasen.
Un total de 13 empleados actuales y anteriores de OpenAI y Google DeepMind firmaron la carta. Además de los “padrinos” de la IA, el informático británico Stuart Russell también apoyó la medida.
Un ex empleado de OpenAI habla sobre los riesgos de la IA
Uno de los ex empleados de OpenAI que firmó la carta abierta, Daniel Cocotaylo, también hizo una serie de Soportes en X (antes Twitter), destacando su experiencia en la empresa y los riesgos de la inteligencia artificial. Afirmó que cuando renunció a la empresa le pidieron que firmara una cláusula de no menosprecio para impedirle decir algo crítico hacia la empresa. También afirmó que la empresa amenazó a Kokotaglo con retirarle sus acciones adquiridas por negarse a firmar el acuerdo.
Cocotaylo afirmó que las redes neuronales para sistemas de inteligencia artificial crecen rápidamente a partir de los grandes conjuntos de datos que reciben. Agregó que no existen procedimientos suficientes para monitorear los riesgos.
“Hay muchas cosas que no entendemos sobre cómo funcionan estos sistemas y si seguirán siendo compatibles con los intereses humanos a medida que se vuelvan más inteligentes y tal vez superen el nivel de inteligencia humana en todos los ámbitos”, añadió.
En particular, OpenAI también es edificio Model Spec, un documento a través del cual pretende guiar mejor a la empresa en la construcción de tecnología de IA ética. Últimamente también criatura Comité de Seguridad y Vigilancia. Cocotaylo elogió estas promesas en una publicación.