Así es como Google cree que debería regularse la IA



Mientras los gobiernos estatales y federales buscan regular la inteligencia artificial, Google se está alineando con sus propias ideas.

El miércoles, el gigante tecnológico publicado Una publicación de blog titulada “Siete principios para lograr una correcta regulación de la IA”. Como era de esperar, el mensaje general es que la IA debe regularse, pero no hasta el punto de sofocar la innovación. “Estamos en medio de una carrera tecnológica global”, escribió Kent Walker, jefe de asuntos globales de Google y de la empresa matriz Alphabet. “Y como todas las carreras tecnológicas, es una competencia que no la ganará el país que inventa algo primero, sino los países que mejor lo implementan, en todos los sectores”.

Google y las empresas de IA, como OpenAI, han adoptado una postura públicamente colaborativa hacia la regulación de la IA, citando la amenaza de Riesgo existencial. El director ejecutivo de Google, Sundar Pichai, participó en los foros del Senado sobre AI Insight para actualizar sobre cómo el Congreso debería legislar sobre la IA. Pero algunos partidarios de un ecosistema de IA menos regulado y más abierto han criticado a Google y otras organizaciones por generar miedo para lograr la captura regulatoria.

“Altman, Hassabis y Amudi son los que ejercen una enorme presión sobre las empresas en este momento”. Él dijo Yann LeCun, científico jefe de IA de Meta, en referencia a los directores ejecutivos de OpenAI, Google DeepMind y Anthropic, respectivamente. “Si las campañas para infundir miedo funcionan, funcionarán Inevitablemente Esto conducirá a lo que usted y yo consideraríamos un desastre: unas pocas empresas controlarán la inteligencia artificial”.

See also  Microsoft explica cómo maneja la seguridad y la privacidad en el retiro

Velocidad de la luz medible

Walker señaló la Orden Ejecutiva de la Casa Blanca sobre IA, la Hoja de Ruta de la Política de IA propuesta por el Senado de Estados Unidos y los recientes proyectos de ley relacionados con la IA de 2018. California Y Connecticut. Si bien Google dice que apoya estos esfuerzos, la legislación sobre IA debería centrarse en regular resultados específicos del desarrollo de la IA, no en leyes generales que sofoquen el desarrollo. “Avanzar en la innovación estadounidense requiere intervención en los puntos de daño real, no desincentivos para una investigación integral”, dijo Walker, señalando en una sección sobre “Esforzarse por la armonización” que se han propuesto más de 600 proyectos de ley sólo en Estados Unidos.

La publicación de Google también abordó brevemente la cuestión de la infracción de derechos de autor y cómo y qué datos se utilizan para entrenar modelos de IA. Las empresas que utilizan modelos de IA argumentan que el uso de datos disponibles públicamente en la web constituye un uso legítimo y han sido acusadas de hacerlo. Empresas de mediosY recientemente Principales sellos discográficos Violar los derechos de autor y lucrar con ellos.

Walker enfatiza principalmente el argumento del uso legítimo, pero reconoce que debería haber más transparencia y control sobre los datos de entrenamiento de IA, diciendo: “Los propietarios de sitios web deberían poder usar herramientas legibles por máquina para optar por no usar el contenido de sus sitios para entrenamiento”. Sobre la inteligencia artificial. “.

El principio de “apoyar la innovación responsable” cubre los “riesgos conocidos” en términos generales. Pero no entra en detalles, por ejemplo, sobre la supervisión regulatoria para evitar errores flagrantes en las respuestas generativas de la IA que podrían alimentar la desinformación y causar daño.

Para ser justos, nadie se tomó en serio cuando se recomendó el resumen de IA de Google. Ponle pegamento a la pizza.pero es un ejemplo reciente que destaca la discusión en curso sobre la responsabilidad por las mentiras generadas por la IA y la publicación responsable.





Source Article Link

Leave a Comment