El equipo de moderación de Bluesky se cuadriplica en medio del auge de usuarios



Más usuarios significa más problemas, y el genio de las redes sociales, Bluesky, no es una excepción. Plosky anunció el lunes Nuevos esfuerzos de moderación Para abordar el crecimiento en términos de contenido de usuario en medio de su asombroso crecimiento.

En una entrevista exclusiva con Platformer, Bluesky explicó que cuadriplicará su equipo de moderación de contenido, actualmente una fuerza laboral contratada de 25 personas, para reducir la alarmante afluencia de material de abuso sexual infantil (CSAM) y otros contenidos que violan las ubicaciones de la comunidad. . Directrices: casos que hasta ahora no han pasado por los sistemas de supervisión existentes y requieren supervisión humana.

“El aumento de nuevos usuarios ha traído consigo un crecimiento concomitante en la cantidad de casos difíciles, molestos y francamente extraños con los que tiene que lidiar el equipo de Confianza y Seguridad”, escribió la compañía. “En todo 2023, Bluesky tuvo dos casos confirmados de CSAM publicados en la red. Tuvo ocho casos confirmados solo el lunes”.

Velocidad de la luz triturable

En general, la plataforma navega a través de Una explosión en los informes de los usuarios Lo maneja una empresa muy pequeña. El 15 de noviembre, la plataforma publicó que estaba recibiendo 3.000 informes por hora, en comparación con solo 360.000 informes durante todo 2023. “Estamos clasificando esta gran cola para que el contenido más dañino como CSAM se elimine rápidamente. Con esta importante afluencia de usuarios, también hemos visto un aumento en el spam, las estafas y la actividad de phishing; es posible que usted mismo haya visto algo de esto. “, escribió la plataforma en ese momento. “Agradecemos su paciencia mientras le pedimos a nuestro equipo de moderación que alcance la capacidad máxima y contrate nuevos miembros para soportar esta carga”.

See also  Being a parent is a hidden scientific superpower — here’s why

El aumento de su fuerza laboral humana por parte de Bluesky complementa lo que a menudo es un mundo complejo y confuso de moderación de contenido automatizada impulsada por IA. en seguimiento cadenaPlosky señaló problemas con las políticas de moderación “a corto plazo” implementadas durante la semana pasada para abordar el contenido dañino en áreas políticas de alto riesgo, incluido el abuso sexual infantil. Plosky explicó que en respuesta a los informes automatizados y los esfuerzos del equipo de Confianza y Seguridad, muchas cuentas fueron suspendidas temporalmente. La plataforma restablece las cuentas que considera que han sido eliminadas injustamente.

Los sistemas internos de moderación de contenido de Bluesky también se combinan con herramientas externas, como la herramienta de informes Safer, creada por Child Safety nRentabilidad de Thorne. Considerada como una red social descentralizada impulsada por los usuarios, Bluesky prioriza un “ecosistema de proveedores externos” y evita la “autoridad de moderación centralizada” en favor de la personalización del usuario.





Source Article Link

Leave a Comment