El domingo, el gobernador de California, Gavin Newsom, vetó el proyecto de ley 1047 del Senado, un conjunto de controvertidas normas de seguridad de la IA con varios mandatos para las empresas, objetando su enfoque. Por lo tanto, muchos de los actores de la IA del estado, incluida Apple, no tendrán que cambiar su forma de operar ni enfrentar posibles sanciones debido a esta legislación en particular.
Pero a pesar de dejar la SB 1047 sin firmar, Newsom dijo que cree en la necesidad de regular la seguridad de la IA.
El gobernador de California veta el proyecto de ley de seguridad de la IA
Newsom vetó la SB 1047 el domingo al enviar el proyecto de ley sin firmar al Senado de California. Con un mensaje explicativo.. El proyecto de ley, la Ley de Innovación Segura para Modelos Fronterizos de IA, llegó al escritorio de Newsom a continuación. Pasar el Senado Bajo la autoría principal de Senador Scott Wiener (D-San Francisco) A finales de agosto. Si se convirtiera en ley con la firma de Newsom, la SB 1047 probablemente tendría un impacto inteligencia de manzanaDesarrollo e implementación. Manzana Impulsar la inteligencia artificial continua Debut con próximas iOS 18.1 y Mac Secuoya 15.1 Versiones. Requiere nuevas funciones de IA iPhone 15 Pro o posterior, o dispositivos iPad y Mac con chip M1 o posterior.
Pero incluso con el fracaso de la SB 1047, la industria emergente de la IA sabe que se avecina una regulación. Pero hasta ahora no parece haber ningún comentario de Apple sobre la SB 1047 o la regulación de seguridad de la IA en general.
Varios motivos de veto
El gobernador Newsom citó varias razones para vetar la legislación, incluida la carga que supone para las empresas, así como su amplitud:
Aunque bien intencionado, el SB 1047 no tiene en cuenta si el sistema de IA se implementa en entornos de alto riesgo, implica tomar decisiones críticas o utilizar datos confidenciales. En cambio, el proyecto de ley aplica estándares estrictos incluso a las funciones básicas, siempre que exista un gran sistema que las implemente. No creo que este sea el mejor enfoque para proteger al público de las amenazas reales que plantea la tecnología.
Dijo que la SB 1047 podría desalentar la innovación. “Pueden surgir modelos más pequeños y especializados que sean igual o incluso más riesgosos que los modelos a los que se dirige la SB 1047, con el costo potencial de disminuir la innovación que impulsa el progreso para el bien común”, escribió Newsom.
Todavía es necesario regular la inteligencia artificial
Newsom dijo que cree que deberían existir barreras de seguridad, incluidas consecuencias para las empresas u otros malos actores que incumplan futuras regulaciones. Pero no cree que el país deba “conformarse con una solución que no dependa del análisis empírico de la trayectoria de los sistemas y capacidades de IA”.
Por su parte, Weiner, autor principal de la SB 1047, calificó el veto como un revés en una publicación en X (antes Twitter).
“Este veto nos deja con la incómoda realidad de que las empresas que pretenden crear tecnología extremadamente poderosa no enfrentan restricciones vinculantes por parte de los responsables políticos estadounidenses, especialmente dada la continua parálisis del Congreso a la hora de regular la industria tecnológica de manera significativa”, escribió.
Mi declaración sobre el veto del gobernador a la SB 1047: pic.twitter.com/SsuBvV2mMI
– Senador Scott Wiener (@Scott_Wiener) 29 de septiembre de 2024
¿Qué había en la SB 1047?
A pesar de la oposición de muchos miembros de la industria tecnológica, como OpenAI, el proyecto de ley ha recibido un amplio apoyo bipartidista. Llegó después de la administración Biden. Directrices de inteligencia artificial Apple y otras empresas tecnológicas se han comprometido a seguir, pero el nuevo proyecto de ley contiene más detalles e incluye mandatos ejecutables. En otras palabras, tenía cierto poder del que carecían las directrices de la Casa Blanca.
La SB 1047 se centró en regular los modelos de IA de vanguardia, que podrían afectar futuras funciones de IA en Mac y otros dispositivos. Ha requerido que los desarrolladores de IA realicen pruebas de seguridad en modelos avanzados de IA cuyo desarrollo costó más de 100 millones de dólares o que requieren una cierta cantidad de potencia informática. Las empresas deben demostrar la capacidad de cerrar rápidamente formularios inseguros y protegerse contra modificaciones maliciosas.
Además, el proyecto de ley otorga al fiscal general del estado el poder de procesar a los desarrolladores que no cumplan con las reglas. Incluía salvaguardias para los denunciantes que señalan los riesgos de la IA y requería que los desarrolladores contrataran auditores externos para evaluar sus precauciones de seguridad.