Las leyes de inteligencia artificial en Estados Unidos están sintiendo la presión de las empresas


Adopción de una ley de inteligencia artificial en la Unión Europea este año Especulación elevada Hay muchas preguntas sobre la posibilidad de un “efecto Bruselas”: cuando la regulación de la UE tiene un impacto global a medida que las empresas adoptan reglas para facilitarles la operación internacional, o cuando nuevas leyes en otros lugares se basan en el enfoque de la UE. Las formas en que el Reglamento General de Protección de Datos (RGPD) –las reglas de la Unión Europea sobre privacidad de datos– han afectado la legislación a nivel estatal y el autogobierno corporativo en los Estados Unidos es un excelente ejemplo de cómo esto puede suceder, especialmente cuando la legislación federal se descompone y los estados toman la iniciativa, que es lo que está sucediendo hoy en la gobernanza de la IA en los Estados Unidos.

Hasta ahora, sólo hay evidencia limitada de que los países estén siguiendo el ejemplo de la UE al redactar su propia legislación sobre IA. Hay pruebas contundentes de presión sobre los legisladores estatales por parte de la industria tecnológica, que no parece dispuesta a adoptar las normas de la UE, sino que, en cambio, está presionando por una legislación menos estricta que reduzca los costos de cumplimiento pero que, en última instancia, proteja menos a los individuos. Dos proyectos de ley aprobados en Colorado y Utah y proyectos de ley en Oklahoma y Connecticut, entre otros estados, ilustran esto.

La principal diferencia entre los proyectos de ley gubernamentales y la ley de IA es su alcance. La ley de IA adopta un enfoque integral destinado a proteger los derechos fundamentales y establece un sistema basado en riesgos, donde se prohíben algunos usos de la IA, como la “evaluación social” de las personas en función de factores como los vínculos familiares o la educación. Las aplicaciones de IA de alto riesgo, como las utilizadas en la aplicación de la ley, están sujetas a requisitos muy estrictos, mientras que los sistemas de menor riesgo imponen pocas o ninguna obligación.

See also  Las filtraciones sobre el diseño del Infinix XPad indican opciones de color y características principales

Por el contrario, los proyectos de ley estatales tienen un alcance más limitado. La legislación de Colorado se basó directamente en el proyecto de ley de Connecticut, los cuales incluyen un marco basado en riesgos, pero tienen un alcance más limitado que la ley de IA. El marco cubre áreas similares –incluidas la educación, el empleo y los servicios gubernamentales–, pero sólo los sistemas que toman “decisiones con consecuencias” que afectan el acceso de los consumidores a estos servicios se consideran de “alto riesgo”, y no existen prohibiciones sobre casos de uso específicos para la IA. (El proyecto de ley de Connecticut prohibiría la publicación de vídeos políticos falsos y falsificaciones explícitas no consensuadas, por ejemplo, pero no su creación). Además, las definiciones de IA difieren entre los proyectos de ley estadounidenses y la Ley de IA.

Aunque existe una superposición entre los proyectos de ley de Connecticut y Colorado y la Ley de Inteligencia Artificial en términos de los documentos que exigen que las empresas creen cuando desarrollan sistemas de IA de alto riesgo, los proyectos de ley de los dos estados se parecen más al modelo de ley de IA creado por el software estadounidense. empresa Workday, que desarrolla sistemas de gestión laboral y financiera. Documento de Workday, que fue compartido en Artículo de la plataforma de noticias sobre ciberseguridad Registro En marzo, un proyecto de ley de IA estructurado en torno a obligaciones para los desarrolladores y usuarios de IA regula los sistemas utilizados en las decisiones posteriores, de manera muy similar a los proyectos de ley de Colorado y Connecticut. De hecho, los documentos que proporcionan estos proyectos de ley son similares en alcance y redacción a la evaluación de impacto que el proyecto de ley Workday propone producir junto con las propuestas de sistemas de IA. El documento de Workday también contiene un lenguaje similar a los proyectos de ley presentados en California, Illinois, Nueva York, Rhode Island y Washington. Un portavoz de Workday dice que ha sido transparente en cuanto a desempeñar un “papel constructivo en la promoción de políticas ejecutables que equilibren la protección de los consumidores con el impulso de la innovación”, incluido “proporcionar aportes en forma de lenguaje técnico” informado por “conversaciones políticas con legisladores” a nivel mundial.

See also  5 funciones de Apple Intelligence que puedes probar ahora y cómo activarlas

Pero el poder de la industria tecnológica en general puede extenderse más allá de este tipo de inspiración negativa. El proyecto de ley de Connecticut contenía una sección sobre IA generativa inspirada en parte de la ley de IA, pero fue eliminada tras la presión concertada de la industria. Aunque el proyecto de ley ha recibido el apoyo de algunas de las principales empresas de tecnología, sigue siendo un misterio. Las asociaciones industriales sostienen que el proyecto de ley sofocaría la innovación, lo que llevó al gobernador de Connecticut, Ned Lamont, a amenazar con vetarlo. Su progreso se ha estancado, al igual que varios proyectos de ley más amplios sobre IA que están siendo considerados por varios estados. Se espera que el proyecto de ley de Colorado sea modificado para evitar sofocar la innovación antes de que entre en vigor.

Una explicación para la falta de influencia de Bruselas y una fuerte “influencia de las grandes tecnologías” en las leyes estatales es que, en comparación con las discusiones sobre medidas de protección de datos bajo el GDPR, la discusión legislativa sobre la IA es Más avanzado a nivel federal de EE.UU.Estos pasos incluyen una hoja de ruta política del Senado y aportes activos de actores de la industria y cabilderos. Otra explicación es la vacilación encarnada por el gobernador Lamont. En ausencia de leyes federales uniformes, los estados temen que una legislación fuerte haga que la tecnología nacional migre a estados con regulaciones más débiles, un riesgo que es menos evidente en la legislación de protección de datos.

See also  Google I/O 2024: qué esperar

Por estas razones, los lobistas afirman preferir una regulación nacional uniforme de la IA a la fragmentación estado por estado, una línea que las grandes tecnológicas han repetido públicamente. Pero en privado, algunos abogan por reglas voluntarias y más ligeras en todas partes, lo que demuestra su disgusto por la legislación estatal y nacional sobre IA. Si no surge ningún tipo de regulación, las empresas de IA mantendrán el status quo: una apuesta a que los entornos regulatorios dispares en la UE y los EE. UU. (con un régimen ligero en los EE. UU.) son más ventajosos para ellas que los beneficios de una solución armoniosa, pero sistema fuertemente regulado.

Al igual que con el GDPR, puede haber algunos casos en los que cumplir con las normas de la UE tenga sentido comercial para las empresas estadounidenses, pero esto significa que Estados Unidos estará menos regulado en general, lo que significa que los individuos estarán menos protegidos contra el uso indebido de la inteligencia artificial. Aunque Bruselas ha enfrentado una buena cantidad de presiones y concesiones, el núcleo de la ley de IA se ha mantenido intacto. Veremos si las leyes estatales de EE. UU. mantienen su rumbo.

Incompatibilidad

El autor declara no tener conflictos de intereses.



Source Article Link

Leave a Comment