Categories
Life Style

Cómo Donald Trump convirtió la moderación de contenidos en un campo minado político

[ad_1]

Históricamente, las plataformas de redes sociales han administrado su contenido como un padre administra una casa llena de adolescentes: si vives bajo mi techo, debes seguir mis reglas. Pero a medida que las redes sociales se han vuelto cada vez más omnipresentes en nuestras vidas fuera de línea (y más inherentemente políticas), las preguntas se han convertido en: ¿Quién? realmente ¿A quién pertenece el techo, quién establece esas reglas y están en juego nuestras libertades civiles?

Bajo la administración del presidente electo Donald Trump, es probable que este debate se intensifique hasta que la politización de la moderación de contenidos alcance un punto álgido.

¿Cómo llegamos aquí?

La evolución de la moderación de contenidos comenzó lentamente y ha ganado velocidad a medida que crecía la influencia de las redes sociales. Cada vez está más claro qué es necesario hacer y cuándo Facebook, gorjeoy YouTube Yo jugué Roles principales en Primavera árabeuna serie de protestas en el mundo árabe en respuesta a la corrupción gubernamental, en la primera década del siglo XXI. Facebook fue utilizado como Una herramienta para que los activistas se organicenpero rápidamente se volvió controvertido. YouTube Luché con si permitir videos violentos Tenían fines educativos o documentales en respuesta a activistas en Egipto y Libia que exponían la tortura policial. Casi al mismo tiempo, Twitter ha introducido una política de “bloqueo de tweets a nivel nacional”..

En 2013, Documentos filtrados de las oficinas de supervisión de Facebook Muestra exactamente qué contenido estaba moderando Facebook. Al año siguiente, la cuestión del extremismo en línea surgió en las plataformas de redes sociales. YouTube ha dado marcha atrás en su política de permitir algunos vídeos violentos después de haberlos visto una vez. El periodista James Foley. La decapitación fue generalizada. Twitter enfrentó una reacción violenta El acoso no se controla Sobre la liberación de las mujeres Cazafantasmas La película, resultando en un cambio moderado en el contenido.

entre bastidores, Las personas que moderaron el contenido denunciaron condiciones de trabajo pésimas.. Luego llegó 2016.

Información engañosa y engañosa Las elecciones presidenciales estadounidenses entre Hillary Clinton y Trump han estado plagadas de problemas. A pesar de Facebook lanza programa de verificación de datosLas plataformas han luchado por detener la difusión de información errónea y la interferencia electoral. En Myanmar, el pueblo rohingya enfrentó una violencia étnica masiva Impulsado por el contenido de Facebook. Mientras tanto, Facebook Live se ha convertido en un lugar para retransmitir suicidios y tiroteosincluido El asesinato de Philando Castilla. En 2018, TikTok se lanzó en ChinaEn el mismo año, Twitter ha eliminado 70 millones de bots para limitar la influencia de la desinformación política. Más tarde ese año, YouTube ha publicado su primer informe de transparenciay su formulario de Facebook junta de supervisiónpermitiendo a los usuarios apelar sus decisiones. En 2019 se produjo el atentado terrorista contra la Iglesia de la Iglesia, que Fue transmitido por Facebook Livellevó a Llamado a la acción de Christchurch para eliminar el contenido terrorista y extremista violento en líneaun grupo de países que “trabajan juntos bajo el paraguas de la promoción para evitar que terroristas y extremistas violentos exploten Internet”. Twitter permitió a sus usuarios apelar la eliminación de contenidos Más tarde ese año, TikTok finalmente se lanzó a nivel mundial.

Y todo el tiempo, Trump fue presidente. Inscribirse Orden ejecutiva que previene la censura en Internetque estaba dirigido Sección 230 de la Ley de Decencia en las Comunicaciones Su objetivo es reducir lo que considera un prejuicio contra él y otros conservadores en la forma en que las plataformas moderan el contenido. Esto vino después Varios de los tweets de Trump han sido marcados por Twitter como información errónea.. Él y otros miembros de su partido acusaron a plataformas como Twitter y Facebook Google de sesgo anticonservador, lo que llevó a Audiencias e investigaciones del Congreso sobre contenido moderado – un tipo de influencia que Katie Harbath, fundadora y directora ejecutiva de la firma de políticas tecnológicas Anchor Change y ex ejecutiva de Facebook, llama “reputación”.

“La pandemia del 6 de enero y el pico de politización”

Entonces llegó el COVID-19. Se ha extendido la desinformación sobre la epidemia mundialY como resultado, más personas murieron. Las reglas de moderación de contenido en línea se han expandido a nivel internacional para abordar fenómenos crecientes como el discurso de odio, la desinformación electoral y la desinformación sanitaria. Facebook introdujo políticas de orientación Contenido de negación del HolocaustoGrupos de odio, milicias organizadas y teorías de conspiración Twitter ha lanzado su propio Centro de Transparencia.

pero El 6 de enero de 2021 fue un punto de inflexión. Plataformas como Facebook, Twitter y YouTube. Prohibir o cerrar las cuentas del entonces presidente Trump Acusado de incitación a la violencia durante… Ataque al Capitolio.

Historias principales mezclables

“Yo diría que la destitución de Trump fue el pináculo de la oscilación del péndulo”, dijo a Mashable Katie Harbath, fundadora y directora ejecutiva de la firma de políticas tecnológicas Anchor Change y ex ejecutiva de Facebook. “A partir de entonces, durante los próximos cuatro años, [platforms have] Regresarán un poco más para centrarse en la cantidad de contenido que quieren eliminar. [And] Se están volviendo más silenciosos sobre esto. “No están siendo transparentes al respecto porque no quieren ser blanco de ataques políticos”.

¿Dónde estamos ahora?

Desde entonces, Trump ha sido reinstalado en todas las plataformas de redes sociales. Pero el foco sigue siendo el siguiente: los republicanos afirman que la moderación de contenidos silencia las voces conservadoras. Como dijo Perrin Szuka, presidente de TechFreedom, a Mashable: “La censura es simplemente editar contenido que a alguien no le gusta”.

Elon Musk, A. Quien se definió como una “libertad absoluta de expresión” me metí en twitter A finales de 2022 alimentó esta retórica. En enero de 2023, los republicanos de la Cámara de Representantes crearon un Subcomité sobre “Armar al Gobierno Federal” Apuntando a la supuesta censura de puntos de vista conservadores. En uno de sus primeros actos oficiales enviaron cartas a grupos de investigación Solicite cualquier documento Correspondencia entre estos grupos y el gobierno federal o empresas de redes sociales sobre moderación de contenido. Mientras tanto, una demanda alegaba que la administración del presidente Joe Biden presionó a las plataformas para suprimir la información errónea sobre el coronavirus, que según los fiscales era… Una forma de supresión del habla..

Meta, en un cambio notable, ha Redujo su enfoque en el contenido político.especialmente en su competidor Twitter Temaslo que, según Harbath, “no es necesariamente moderación de contenido, sino una decisión sobre qué tipos de contenido brindan o no a las personas”.

¿Qué veremos en el futuro de la moderación de contenidos?

El presidente electo Trump ha hecho de la moderación de contenidos una cuestión electoral. Brendan Carr, su elección para dirigir la FCC, ya se ha hecho eco de esta agenda. Pide desmantelar Por lo que él llama un “cártel de censura” y un intento de “restaurar los derechos de libertad de expresión de los estadounidenses comunes y corrientes”.

“Para hacer eso, tienen que intimidar a las empresas de tecnología o pedirles que difundan discursos que no quieren transmitir”, dijo Szuka. “Los republicanos están en guerra por la moderación de contenidos”.

Esta “guerra” probablemente se librará en varios frentes diferentes: legislativo y reputacional, dice Harbath. En cuanto a la reputación, veremos más audiencias en el Congreso con ejecutivos de tecnología, más publicaciones de Trump sobre X y más energía cuestionable con respecto a la moderación de contenido en general. Legislativamente tenemos un camino interesante por delante.

Como dice Szuka, Carr probablemente aceptará la oferta de Trump según los criterios de elegibilidad del departamento. 230 CV, que “Otorga inmunidad total a las actividades del editor o del orador, independientemente de si el discurso en cuestión es ilegal”. Esto significa que Facebook no es responsable de la información errónea, el discurso de odio o cualquier otra cosa que llegue a la plataforma que posee y opera con su dinero.

“[Republicans will] “Utilice la Sección 230 porque al hacerlo, pueden decir: 'No estamos pidiendo nada'”, dijo Szoka. “Como empresa privada, eres libre de hacer lo que quieras. Pero si quieres inmunidad bajo la Sección 230, tienes que ser neutral, y nosotros decidimos qué es neutral”.

Harbath ve que se avecina el caos, pero se pregunta si la Sección 230 realmente cambiará: “Probablemente habrá controversia y discusión al respecto, pero soy escéptico sobre si la Sección 230 realmente cambiará o no”.

Mientras tanto, el auge de la inteligencia artificial está remodelando el futuro de la moderación de contenidos. “En los próximos cuatro años, la forma en que la gente consumirá información, lo que hablamos hoy será completamente irrelevante y se verá completamente diferente”, dijo Harbath. “La IA cambiará la forma en que pensamos sobre nuestras fuentes de noticias, los incentivos de las personas, lo que publican, cómo se ve, y abrirá nuevos desafíos para las empresas de tecnología en cuanto a cómo politizan”.

¿Deberíamos tener miedo? Quizás no. Según Harbath, todavía es demasiado pronto para predecir cómo será la moderación de contenidos durante un segundo mandato de Trump. Pero debemos mantener los ojos abiertos. Las reglas para la moderación de contenidos (y quién puede redactarlas) están cada vez más determinadas por el poder político, la percepción pública y el desarrollo tecnológico, lo que prepara el terreno para batallas por la libertad de expresión, la responsabilidad corporativa y el papel del gobierno en la regulación de los espacios en línea.



[ad_2]

Source Article Link

Categories
Life Style

El equipo de moderación de Bluesky se cuadriplica en medio del auge de usuarios

[ad_1]

Más usuarios significa más problemas, y el genio de las redes sociales, Bluesky, no es una excepción. Plosky anunció el lunes Nuevos esfuerzos de moderación Para abordar el crecimiento en términos de contenido de usuario en medio de su asombroso crecimiento.

En una entrevista exclusiva con Platformer, Bluesky explicó que cuadriplicará su equipo de moderación de contenido, actualmente una fuerza laboral contratada de 25 personas, para reducir la alarmante afluencia de material de abuso sexual infantil (CSAM) y otros contenidos que violan las ubicaciones de la comunidad. . Directrices: casos que hasta ahora no han pasado por los sistemas de supervisión existentes y requieren supervisión humana.

“El aumento de nuevos usuarios ha traído consigo un crecimiento concomitante en la cantidad de casos difíciles, molestos y francamente extraños con los que tiene que lidiar el equipo de Confianza y Seguridad”, escribió la compañía. “En todo 2023, Bluesky tuvo dos casos confirmados de CSAM publicados en la red. Tuvo ocho casos confirmados solo el lunes”.

Velocidad de la luz triturable

En general, la plataforma navega a través de Una explosión en los informes de los usuarios Lo maneja una empresa muy pequeña. El 15 de noviembre, la plataforma publicó que estaba recibiendo 3.000 informes por hora, en comparación con solo 360.000 informes durante todo 2023. “Estamos clasificando esta gran cola para que el contenido más dañino como CSAM se elimine rápidamente. Con esta importante afluencia de usuarios, también hemos visto un aumento en el spam, las estafas y la actividad de phishing; es posible que usted mismo haya visto algo de esto. “, escribió la plataforma en ese momento. “Agradecemos su paciencia mientras le pedimos a nuestro equipo de moderación que alcance la capacidad máxima y contrate nuevos miembros para soportar esta carga”.

El aumento de su fuerza laboral humana por parte de Bluesky complementa lo que a menudo es un mundo complejo y confuso de moderación de contenido automatizada impulsada por IA. en seguimiento cadenaPlosky señaló problemas con las políticas de moderación “a corto plazo” implementadas durante la semana pasada para abordar el contenido dañino en áreas políticas de alto riesgo, incluido el abuso sexual infantil. Plosky explicó que en respuesta a los informes automatizados y los esfuerzos del equipo de Confianza y Seguridad, muchas cuentas fueron suspendidas temporalmente. La plataforma restablece las cuentas que considera que han sido eliminadas injustamente.

Los sistemas internos de moderación de contenido de Bluesky también se combinan con herramientas externas, como la herramienta de informes Safer, creada por Child Safety nRentabilidad de Thorne. Considerada como una red social descentralizada impulsada por los usuarios, Bluesky prioriza un “ecosistema de proveedores externos” y evita la “autoridad de moderación centralizada” en favor de la personalización del usuario.



[ad_2]

Source Article Link

Categories
Life Style

Doce días antes de las elecciones, el consejo de supervisión del Meta expresó su preocupación por la moderación en el discurso político

[ad_1]

A 12 días todavía de las elecciones presidenciales estadounidenses de 2024, todavía existen preocupaciones sobre si eso será posible o no. muerto Puede mitigar adecuadamente el contenido político que contiene. Plataformas.

Hace 2 meses, A. Facebook El usuario colocó los rostros de la candidata presidencial, la vicepresidenta Kamala Harris y su compañero de fórmula, el gobernador de Minnesota Tim Walz, sobre los personajes de Jim Carrey y Jeff Daniels en la foto. Tonto y más tonto Cartel de película. El cartel muestra a los personajes de Curry y Daniels agarrándose los pezones, ya sabes cuál. Luego, el usuario lo subtituló con un emoji “🤷‍♂️🖕🖕”.

Meta eliminó la publicación porque entraba en conflicto con la plataforma. Norma comunitaria para el acoso y el acosoprecisamente porque este estándar no permite “Photoshop o gráficos de carácter sexual ofensivo”. El usuario apeló la decisión Meta, lo que resultó en que la decisión se elevara a Meta Junta de Supervisión. Luego, Meta decidió que su eliminación era incorrecta y devolvió la publicación a Facebook.

La Junta de Supervisión de Meta es un grupo que incluye Más de 20 miembrosEste grupo, que incluye académicos, responsables políticos y periodistas, toma decisiones de moderación de contenidos en Facebook e Instagram. el La junta escribió que lidiar con meta La publicación les genera “serias preocupaciones” sobre la capacidad de Meta para moderar el contenido político en sus plataformas.

Velocidad de la luz triturable

“Esta publicación no es más que una imagen satírica común de políticos prominentes y es instantáneamente reconocible como tal”, escribió la junta. Continuó:

En el contexto de las elecciones, la Junta recomendó anteriormente que Meta desarrolle un marco para evaluar los esfuerzos de integridad electoral con el fin de proporcionar a la empresa datos relevantes para mejorar su sistema de moderación de contenido en su conjunto y determinar cómo implementar mejor sus recursos en contextos electorales.

Luego señaló un caso anterior que involucraba a un general en Brasil que, en medio de las elecciones de ese país de 2022, llamó a los activistas a “salir a las calles”, un comentario vinculado a los manifestantes que irrumpieron en el Congreso Nacional y la Corte Suprema de Brasil. La directiva en ese momento tomó la decisión contraria: que Meta había fracasado No Eliminar los comentarios del general de manera oportuna para evitar más situaciones turbulentas. La Junta claramente quiere ver avances en la creación de un sistema de reglas que cubra ese falso negativo pasado, así como este falso positivo.

Su declaración continuó:

Meta informó sobre el progreso realizado en la implementación de esta recomendación. Sin embargo, el hecho de que la Compañía no reconozca la naturaleza de esta publicación y no actúe en consecuencia genera serias preocupaciones sobre los sistemas y recursos que Meta ha implementado para tomar decisiones de contenido de manera efectiva en tales contextos electorales.

El consejo escribió que vio “una aplicación excesiva de la Meta Política de Acoso y Acoso con respecto al sarcasmo y el discurso político en forma de representaciones despectivas y no sexuales de figuras políticas”. Ella dice que esta aplicación excesiva puede “conducir a una reducción excesiva del discurso político y socavar la capacidad de criticar a funcionarios gubernamentales y candidatos políticos, incluso de manera satírica”.



[ad_2]

Source Article Link

Categories
News

TikTok de ByteDance elimina cientos de puestos de trabajo en un cambio hacia la moderación de contenido de IA

[ad_1]

La plataforma de redes sociales TikTok dijo el viernes que despedirá a cientos de empleados de su fuerza laboral global, incluido un gran número de empleados en Malasia, a medida que cambia su enfoque hacia un mayor uso de la inteligencia artificial en la moderación de contenidos.

Dos fuentes familiarizadas con el asunto dijeron a Reuters anteriormente que se habían eliminado más de 700 puestos de trabajo en Malasia. tik tokpropiedad de China ByteDanzaPosteriormente aclaró que menos de 500 empleados en el país se vieron afectados.

Los empleados, la mayoría de los cuales participaban en las operaciones de moderación de contenidos de la empresa, fueron informados de su despido por correo electrónico a última hora del miércoles, dijeron las fuentes, que pidieron el anonimato porque no estaban autorizadas a hablar con los medios.

En respuesta a las consultas de Reuters, TikTok confirmó los despidos y dijo que se esperaba que varios cientos de empleados se vieran afectados a nivel mundial como parte de un plan más amplio para mejorar sus procesos de moderación.

TikTok utiliza una combinación de detección automatizada y moderadores humanos para revisar el contenido publicado en el sitio.

ByteDance tiene más de 110.000 empleados en más de 200 ciudades de todo el mundo, según el sitio web de la empresa.

La compañía de tecnología también está planeando nuevos recortes el próximo mes mientras busca consolidar algunas de sus operaciones regionales, dijo una de las fuentes.

“Estamos haciendo estos cambios como parte de nuestros esfuerzos continuos para fortalecer nuestro modelo operativo global para la moderación de contenido”, dijo un portavoz de TikTok en un comunicado.

La compañía espera invertir 2 mil millones de dólares (alrededor de 16.812 millones de rupias) a nivel mundial en confianza y seguridad este año y continuará mejorando la eficiencia, con el 80 por ciento del contenido que viola las pautas que ahora se eliminan mediante tecnologías automatizadas, dijo el portavoz.

Los despidos fueron informados por primera vez el jueves por el portal de negocios The Malaysian Reserve.

Los recortes de empleo se producen cuando las empresas tecnológicas globales enfrentan una mayor presión regulatoria en Malasia, y el gobierno pide a los operadores de redes sociales que soliciten una licencia de operación antes de enero como parte de los esfuerzos para combatir el delito cibernético.

Malasia informó de un fuerte aumento del contenido dañino en las redes sociales a principios de este año e instó a las empresas, incluida TikTok, a intensificar el seguimiento de sus plataformas.

© Thomson Reuters 2024

(Esta historia no ha sido editada por el personal de NDTV y se genera automáticamente a partir de un feed sindicado).

[ad_2]

Source Article Link

Categories
News

YouTube deja de recomendar videos sobre peso y apariencia física para adolescentes; Agrega una nueva función de moderación

[ad_1]

YouTube YouTube está trabajando para mejorar las medidas de seguridad de su plataforma para que sea una mejor experiencia para los usuarios jóvenes. El jueves, el gigante de la transmisión de videos anunció que restringiría las recomendaciones de videos sobre el peso corporal, el estado físico y la apariencia física para los adolescentes. La compañía dijo que la decisión se tomó basándose en sugerencias hechas por un comité asesor que también reveló que los adolescentes tienen más probabilidades que los adultos de tener creencias negativas sobre sí mismos; la compañía dice que esta es la razón de las nuevas restricciones en la plataforma.

YouTube mejora las protecciones para los adolescentes

en BlogEl gigante del vídeo en streaming ha anunciado las categorías de vídeos que dejarán de ser recomendados para adolescentes. Estas categorías incluyen videos que comparan rasgos físicos, exageran un tipo de rasgo sobre otro, exageran ciertos niveles de condición física o peso corporal, o enfatizan la agresión social como peleas indirectas e intimidación. Este cambio se está implementando actualmente para los usuarios de todo el mundo.

YouTube dijo que la decisión se tomó después de que un comité asesor compartiera información importante sobre el impacto de la plataforma en las etapas de desarrollo de los adolescentes. “Una idea es que los adolescentes son más propensos que los adultos a formar creencias negativas sobre sí mismos cuando ven mensajes repetidos sobre estándares ideales en el contenido que consumen en línea”, añadió.

La compañía señaló que, aunque mirar un solo vídeo de las categorías anteriores puede no ser perjudicial, las sugerencias repetidas pueden tener un efecto perjudicial en los adolescentes. YouTube también está mejorando sus pautas comunitarias para eliminar contenido y evitar que menores vean videos que violen sus políticas.

Además de esto, la plataforma también ofrece paneles de recursos de apoyo en caso de crisis en varios países de Europa. Estos foros están diseñados para ayudar a las personas a conectarse con el apoyo al suicidio y la autolesión. Los usuarios que experimenten estas condiciones pueden ser redirigidos a líneas directas de emergencia de terceros si realizan consultas específicas relacionadas con estos temas.

Para que la plataforma sea más segura para los menores, YouTube también presenta una nueva experiencia moderada. Con esto, los padres y adolescentes tienen la opción de vincular sus cuentas. Una vez vinculados, los padres pueden ver la actividad del canal de sus hijos adolescentes en YouTube. La compañía dice que ayudará a los padres a brindarles aliento y asesoramiento sobre la creación de contenido responsable. Esta función está actualmente en desarrollo, pero pronto los padres podrán vincular cuentas visitando una nueva sección llamada Centro Familiar.

[ad_2]

Source Article Link