[ad_1]
Meta admitió que utilizó publicaciones públicas de Facebook e Instagram de usuarios australianos para entrenar sus modelos de IA y que recopiló información que se remonta a 2007.
Un comité parlamentario australiano escuchó que, si bien los usuarios europeos pueden optar por no participar gracias al Reglamento General de Protección de Datos (GDPR), los clientes australianos no tienen esa opción.
Meta ha negado haber utilizado información de personas menores de 18 años, pero confirmó que utilizó datos de más de una década. La empresa no pudo responder si recopiló fotografías de niños que ahora son adultos (es decir, aquellos que crearon sus cuentas cuando eran niños, pero que ya cumplieron 18 años).
La marea ha cambiado
El proceso de “minería” es esencial para el desarrollo de la IA y consiste esencialmente en recopilar datos de sitios web, extraer la información y enviarla a grandes modelos de lenguaje (LLM) que aprenden de los datos. Esto significa que las regulaciones GDPR se están volviendo molestas para un número cada vez mayor de modelos lingüísticos grandes. Me gusta ChatGPTque recopila datos de todo Internet sin el consentimiento de la fuente original.
Melinda Claybaugh, directora de privacidad global de Meta, se sentó ante la investigación y admitió que la compañía tuvo que detener el lanzamiento de sus productos de IA en Europa debido a la incertidumbre, y tuvo que dar a los usuarios europeos una opción de exclusión voluntaria debido a leyes de privacidad más estrictas. El senador Shoebridge interrogó al representante de Meta:
“La realidad es que, a menos que hayas configurado deliberadamente estas publicaciones como privadas, desde 2007, Meta acaba de decidir recopilar todas las imágenes y texto de cada publicación pública de Instagram o Facebook que los australianos han compartido desde 2007, a menos que haya una decisión consciente de hacerlo. configurarlos Es privado, pero ese es realmente el caso, ¿no?
“Así es”, respondió Claypaw. Añadió que los usuarios ahora pueden configurar sus publicaciones como privadas para evitar futuras extracciones, pero esto no afectará los datos ya recopilados.
Parece que el público en general y las empresas de tecnología están empezando a darse cuenta de que entrenar modelos de IA requiere cantidades tan enormes de datos que es “imposible” hacerlo. Sin utilizar materiales con derechos de autorDado que millones de publicaciones de usuarios se han utilizado sin su consentimiento, parece que las empresas tecnológicas gigantes pueden enfrentar regulaciones más estrictas en el futuro.
a través de el guardián
Más de TechRadar Pro
[ad_2]
Source Article Link