Un nuevo informe ha descubierto que los adolescentes en Instagram recomiendan regularmente vídeos sexuales y explícitos.



hombre joven Instagram Según un nuevo informe, a los usuarios se les recomienda más fácilmente videos sexualmente explícitos y dañinos de lo que permite la plataforma.

Los hallazgos sobre seguridad infantil se basan en dos experimentos diferentes que realizaron en el sitio. Wall Street Journal y la profesora de informática de la Universidad Northeastern, Laura Edelson. La publicación se probó durante un período de siete meses, creando nuevas cuentas secundarias que luego se desplazaron por el canal de video Reels en Instagram, omitiendo el contenido “normal” y apegándose a videos para adultos más “picantes”. Después de sólo 20 minutos de navegación, las cuentas se llenaron de promociones para “creadores de pornografía para adultos” y ofertas de fotos de desnudos.

Las cuentas de Instagram marcadas como menores se configuran automáticamente para tener los límites de moderación de contenido más estrictos.

Las pruebas de la revista replican las realizadas por ex empleados de seguridad de la empresa en 2021, quienes descubrieron que el sistema de recomendación global del sitio estaba limitando la efectividad de las medidas de seguridad infantil. Documentos internos de 2022 muestran que Meta sabía que su algoritmo recomendaba “más pornografía, sangre y discursos de odio para los usuarios jóvenes que para los adultos”. Wall Street Journal Informes.

“Esta fue una experiencia fabricada que no coincide con la realidad de cómo los adolescentes usan Instagram”, dijo a la publicación Andy Stone, portavoz de Meta. “Como parte de nuestro trabajo a largo plazo en temas de juventud, hemos hecho un esfuerzo por reducir la cantidad de contenido sensible que los adolescentes pueden ver en Instagram, y hemos reducido significativamente esas cifras en los últimos meses”.

See also  Un tornado bomba parece brutal desde el espacio

Velocidad de la luz triturable

Se han realizado pruebas similares en plataformas orientadas a videos como TikTok y Snapchat, pero no arrojaron los mismos resultados que las recomendaciones.

Los nuevos hallazgos siguen a un informe publicado en noviembre. Algoritmo de carretes de Instagram Recomendaba contenido sexualmente explícito a usuarios adultos que solo seguían cuentas de niños.

a investigación de febrerotambién antes Wall Street JournalSe reveló que los empleados de Meta habían advertido a la empresa sobre la presencia continua de padres explotadores y titulares de cuentas adultas en Instagram, que estaban encontrando formas de sacar provecho de imágenes de niños en línea. El informe observó un aumento en el número de “Momfluencers” que realizan bromas sexuales a sus seguidores y venden suscripciones para ver contenido sugerente para sus hijos, como bailar o modelar en bikini.

Los defensores y reguladores han puesto su mirada en el papel de las redes sociales en la explotación infantil en línea. Él mismo estaba muerto Él demandó varias veces por su presunto papel en la explotación infantil, incluida una demanda presentada en diciembre que acusaba a la empresa de crear “Mercado de depredadores“.Tras el establecimiento del Grupo de Trabajo sobre Seguridad Infantil en 2023, Meta ha lanzado una serie de nuevas herramientas de seguridad, que incluyen Controles antiacoso Y el Configuraciones de control de contenido “más estrictas”. Disponible ahora.

Mientras tanto, Meta rival X recientemente Reformó su política de contenido para adultos, permitiendo a los usuarios publicar “desnudos o conductas sexuales producidas y distribuidas a adultos, siempre que estén etiquetadas adecuadamente y no se muestren de manera destacada”. La plataforma declaró que los titulares de cuentas menores de 18 años no podrán ver dicho contenido, siempre que incluya una advertencia sobre el contenido. Pero X no especifica ninguna consecuencia para las cuentas que publiquen contenido para adultos no identificado.

See also  Samsung Galaxy Watch Ultra presentado en Unpacked 2024: ¿puede superar al Apple Watch Ultra?





Source Article Link

Leave a Comment