El material de abuso sexual infantil filmado con inteligencia artificial se está difundiendo en la web oscura.



Inteligencia artificial generativa Esto agrava el problema del material de abuso sexual infantil (CSAM) en línea, según han informado los organismos de control. La difusión del contenido deepfake Incluye fotografías de víctimas reales.

Publicado por Reino Unido Fundación Internet Watch (IWF)El informe documenta un aumento significativo en imágenes alteradas digitalmente o completamente escenificadas que muestran a niños en escenarios explícitos, y un foro compartió 3.512 imágenes y videos durante un período de 30 días. La mayoría eran chicas jóvenes. También se ha documentado que los perpetradores intercambiaron consejos e incluso los modelos de IA se alimentaron con imágenes reales entre sí.

“Sin controles adecuados, las herramientas de inteligencia artificial generativa brindan un campo de juego para que los depredadores en línea cumplan sus fantasías más depravadas y repugnantes”, escribió la directora ejecutiva de la IWF, Susie Hargreaves. “A estas alturas, la IWF ha comenzado a ver más de este tipo de material compartido y vendido en sitios web comerciales que promueven el abuso sexual infantil en línea”.

Según el estudio rápido, ha habido un aumento del 17 por ciento en el material de agresión sexual en línea modificado por IA desde el otoño de 2023, así como un aumento sorprendente en el material que presenta actos sexuales extremos y explícitos. El material incluye imágenes pornográficas para adultos que han sido editadas para mostrar el rostro de un niño, así como contenido existente de abuso sexual infantil que ha sido editado digitalmente con una imagen de otro niño encima.

See also  Palabra del día: respuestas y sugerencias para el 8 de junio

“El informe también subraya la rapidez con la que la tecnología está mejorando su capacidad para crear vídeos totalmente sintéticos de explotación sexual infantil”, escribió la Internet Watch Foundation. “Aunque este tipo de vídeos aún no han evolucionado lo suficiente como para hacerse pasar por vídeos reales de explotación sexual infantil, los analistas dicen que esto es lo 'peor' de todo. Los avances en inteligencia artificial pronto harán que los vídeos sean más realistas en la misma forma en que se han vuelto. “Tiene imágenes fijas realistas”.

En un repaso de 12.000 nuevas apps creadas por inteligencia artificial foto Estas imágenes se publicaron en un foro de la web oscura en el transcurso de un mes, y el 90 por ciento de ellas eran lo suficientemente realistas como para ser evaluadas según las leyes actuales como pornografía real, según los analistas de la IWF.

Velocidad de la luz medible

Otro informe del organismo de control británico, publicado en guardián hoy, Apple supuestamente es… Importante subregistro La cantidad de material de abuso sexual infantil que se comparte en sus productos, genera preocupación sobre cómo la empresa gestiona el contenido elaborado con inteligencia artificial. En su investigación, la Sociedad Nacional para la Prevención de la Crueldad contra los Niños (NSPCC) comparó las cifras oficiales publicadas por Apple con las cifras recopiladas a través de solicitudes de libertad de información.

Si bien Apple presentó 267 informes globales de CSAM al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) en 2023, la Sociedad Nacional para la Prevención de la Crueldad contra los Niños (NSPCC) afirma que la compañía estuvo involucrada en 337 delitos relacionados con imágenes de abuso infantil en Solo Inglaterra y Gales, y estas cifras son solo para el período comprendido entre abril de 2022 y marzo de 2023.

See also  A Budding Artist! See Kim Kardashian And Kanye Wests Daughter Norths Incredible Artwork

Apple se negó guardián Solicitó comentarios, citando una decisión anterior de la compañía de no escanear las bibliotecas de fotos de iCloud en busca de material CSAM, en un esfuerzo por priorizar la seguridad y privacidad del usuario. Mashable también se comunicó con Apple y actualizará este artículo si responde.

Según la ley estadounidense, las empresas de tecnología con sede en Estados Unidos deben informar los casos de material de abuso sexual infantil al Centro Nacional para Víctimas de Agresión Sexual. Google informó más de 1,47 millones de casos al Centro Nacional para Víctimas de Abuso Sexual Infantil en 2023. En otro ejemplo, Facebook eliminó 14,4 millones de contenidos Entre enero y marzo de este año, la compañía también informó de una caída significativa en el número de publicaciones denunciadas sobre desnudez y abuso infantil, pero los organismos de control Ten cuidado.

La explotación infantil en línea es Es muy dificil combatirloRecientemente, los perpetradores de explotación infantil han estado explotando con frecuencia las plataformas de redes sociales y sus vulnerabilidades de comportamiento para continuar interactuando con menores en línea. Ahora, con el poder añadido de la inteligencia artificial en manos de malos actores, la batalla se está intensificando.

Lea más informes de Mashable sobre los efectos de las imágenes sintéticas no consensuadas:

Si se han compartido imágenes íntimas suyas sin su consentimiento, llame a la línea directa 24 horas al día, 7 días a la semana de Cyber ​​​​Civil Rights Initiative al 844-878-2274 para obtener asistencia gratuita y confidencial. El sitio web del CCRI también incluye información útil Y también una lista Recursos internacionales.

See also  He construido el tocadiscos de mis sueños con el nuevo Configurador de Pro-Ject y ahora tengo que vender mi casa.





Source Article Link

Leave a Comment