Categories
Life Style

Un nuevo informe descubre que los comentarios de la Comunidad X no indican desinformación política

[ad_1]

Compañía

nuevo un informe de Centro para la lucha contra el odio digital – Moderno El objetivo legal del CEO de X, Elon Musk – Descubrí que la función de comentarios de la comunidad de la plataforma no llega exitosamente a la mayoría de los usuarios de la plataforma. Si bien más de 160.000 usuarios de X han sugerido comentarios en 2024, la mayoría de las etiquetas de verificación de datos relevantes en publicaciones sobre elecciones y política han desaparecido. Incluso cuando se usan correctamente, los comentarios verificados de la comunidad no aparecen en casi el 75 por ciento de las publicaciones que comparten información errónea sobre las elecciones. Estas publicaciones falsas han acumulado más de 2 mil millones de impresiones.

“Los comentarios de la comunidad se generan a través de un sistema donde usuarios anónimos se registran, escriben y califican publicaciones que brindan verificación de hechos o brindan contexto o información faltante para publicaciones engañosas”, escribió Imran Ahmed, director ejecutivo del centro. “La innovación de X en la verificación de datos comunitaria descentralizada tenía como objetivo, asumimos generosamente, ser un proceso democrático y transparente en el que las comunidades discuten debates y acuerdan hechos mutuamente establecidos. Por supuesto, las redes sociales, como nuestras democracias, no funcionan desde aquí.

Eso Procesamiento e invalidación de resultados. Una investigación reciente, elogiada por X, ha descubierto que cada vez más usuarios confían en los “comentarios de la comunidad” en lugar de en la verificación de datos de expertos.

Velocidad de la luz triturable

En un análisis separado de los datos, El Correo de Washington Hizo hincapié en la apariencia poco confiable de la herramienta y agregó que cuando aparecen comentarios, las publicaciones de los políticos republicanos tienen cuatro veces más probabilidades de ser aprobadas que las de los demócratas. El estudio encontró que 1 de cada 10 de las publicaciones X de Musk recibieron comentarios sugeridos.

A principios de esta semana, X anunció que era Herramienta de comentarios de la comunidad mejorada Antes de las elecciones para abordar las quejas de que la retroalimentación en el sitio era cada vez más lenta. La actualización, conocida como Lightning Notes, aparentemente permitirá que las notas aparezcan menos de 20 minutos después de la publicación de una publicación. Sin embargo, los comentarios solo pueden aparecer en publicaciones que ya han sido marcadas y muchas de ellas se encuentran dentro del intervalo de moderación.

Este no es el único problema de desinformación que sufre la plataforma antes de las elecciones de 2024. bbc investigación Desde esta semana se han identificado crecientes redes de cuentas que se benefician del efecto bola de nieve de la desinformación online. Al aprovechar docenas de estas cuentas, las redes rentables difunden, y luego amplifican, información errónea sobre las elecciones, imágenes generadas por inteligencia artificial y teorías de conspiración para generar compromiso con cuentas premium y, por lo tanto, pagos más altos.

“Las publicaciones sin comentarios de la comunidad que promueven narrativas falsas sobre la política estadounidense han recibido miles de millones de visitas, superando en 13 veces el alcance de sus contrapartes verificadas”, explicó el centro en su informe. “La retroalimentación de la comunidad no es una solución mágica para los problemas X”.



[ad_2]

Source Article Link

Categories
Life Style

He estado estudiando la desinformación durante una década: estos son los rumores a tener en cuenta el día de las elecciones en EE. UU.

[ad_1]

La carrera presidencial estadounidense de este año no tiene precedentes, con un cambio de último minuto del candidato del Partido Demócrata e intentos de asesinato contra el candidato del Partido Republicano, Donald Trump. A medida que aumenta la ansiedad por el resultado y persisten las teorías de conspiración sobre los resultados de las elecciones de 2020, el escenario está preparado para un período de intensos rumores sobre los procesos asociados con la votación y el recuento de votos.

Utilizando la investigación en curso sobre redes sociales en el Centro para Públicos Informados de la Universidad de Washington en Seattle, que codirijo, mis colegas y yo podemos identificar rumores que se propagan a través de las redes demócratas y republicanas en tiempo real. Podemos ver cómo los rumores electorales surgen a medida que se desarrollan los acontecimientos, y cómo a menudo combinan relatos de primera mano, como fotografías o vídeos, con narrativas preexistentes, por ejemplo, que los ciudadanos no estadounidenses están votando en grandes cantidades. Comprender cómo se combinan los acontecimientos electorales con los tropos partidistas puede hacer que los rumores sean más predecibles (S. Spiro y K. pájaro estelar Cuestiones científicas. Tecnología. 39(3), 47-49; 2023). Aquí describimos tres tipos de rumores en los que esperamos que se basen los negacionistas a medida que nos acercamos al día de la votación.

Las afirmaciones falsas y las teorías de conspiración sobre la votación generalizada de no ciudadanos son un tema importante en esta elección. Por ejemplo, hemos visto Varias entrevistas en vídeo a una persona en la calle en plataformas de redes sociales como TikTok e Instagram, que supuestamente muestran a no ciudadanos admitiendo que están registrados, planean votar o han emitido su voto. Algunos vídeos utilizan edición selectiva y subtítulos inexactos para crear una impresión equivocada. En otros casos, los entrevistados admitieron haber dado respuestas incorrectas por ansiedad, por ejemplo, no queriendo que un extraño supiera que no eran ciudadanos.

Hemos visto estas reglas del juego antes. En enero de 2016, poco después de asumir el cargo, el entonces presidente estadounidense Trump afirmó que los votos emitidos por entre tres y cinco millones de inmigrantes ilegales Le costó el voto popular. Sin embargo, no hay evidencia de que un número significativo de no ciudadanos voten ilegalmente en Estados Unidos. Un estudio de 42 jurisdicciones realizado en 2016 estimó que alrededor de 30 de 23,5 millones de votos (0,0001%) fueron emitidos por no ciudadanos (ver go.nature.com/3nuhdzo). Pero a pesar de estas cifras tan bajas, los rumores son particularmente persistentes este año y son consistentes con un aumento más amplio de la retórica antiinmigración.

El segundo tipo de rumor se refiere a acusaciones de parcialidad en la administración de las elecciones. Dada la naturaleza descentralizada de las elecciones estadounidenses, es probable que algo salga mal en alguna parte. Los errores locales pueden utilizarse para inducir a error al nombrar incorrectamente a funcionarios electorales, Omitir tratamientos o exagerar el efecto..

Los formularios de registro o las boletas pueden enviarse por correo a la persona o dirección equivocada. Un error en el diseño de la boleta puede resultar en que el nombre de un candidato esté mal escrito. Por ejemplo, a finales de septiembre el condado de Palm Beach, Florida, envió por correo unas 250 papeletas electrónicas a votantes militares y extranjeros. El candidato demócrata a la vicepresidencia, Tim Walz, escribió mal Como “Tom Walls”. Aunque el error se corrigió rápidamente, muchos usuarios de redes sociales de tendencia demócrata compartieron la historia como un ejemplo de maquinaciones republicanas.

En tales casos, las personas suelen compartir fotografías, vídeos y relatos en primera persona, que pueden difundirse ampliamente en Internet. La campaña de Trump y varias organizaciones políticas partidistas están capacitando a voluntarios en “integridad electoral” y creando infraestructura de presentación de informes, incluso a través de mensajes de texto y formularios en línea, para recopilar pruebas.

Esta información puede alimentar las máquinas de rumores. Las plataformas de redes sociales están preparadas para facilitar la rápida difusión de rumores políticos, incluido todo un teatro de personas influyentes que trabajan con sus audiencias para reunir “evidencia” que se ajuste a narrativas preexistentes.

Durante el período de recuento de votos, es probable que surjan acusaciones de actores u objetos “sospechosos”. Por ejemplo, las imágenes granuladas pueden mostrar a alguien transportando “equipo sospechoso” a una instalación de conteo. Es posible que se publiquen videos y relatos de testigos presenciales de camiones blancos, aparentemente llenos de boletas de votantes no ciudadanos, que se acercan al lugar de votación. Cada rumor ayuda a construir una historia más amplia de que algo anda mal, que alguien está haciendo trampa y que no se puede confiar en los resultados.

Estas tácticas se han utilizado ampliamente para cuestionar los resultados de las elecciones presidenciales estadounidenses de 2020. De hecho, el equipo encontrado en las cajas en cuestión se ha convertido en… Pertenece al fotógrafo De un medio de comunicación local en Detroit, Michigan. Los camiones eran blancos. Alquileres utilizados habitualmente por los funcionarios electorales Transportar las papeletas desde los colegios electorales hasta los centros de escrutinio.

A pesar de todos estos rumores, las imágenes reales están siendo distorsionadas y convertidas en narrativas falsas. Las personas que defienden la verdad y la integridad de la información tienen esta vez una ventaja: ya hemos visto este escenario antes. Los investigadores comprenden mejor la dinámica de Internet relacionada con estos procesos de rumores y podemos detectarlos rápidamente. Nuestro equipo sigue comprometido a proporcionar marcos conceptuales y análisis en tiempo real para ayudar a identificar y resolver los rumores emergentes.

Nuestra esperanza es que estas ideas puedan ayudar a los funcionarios electorales a preparar planes de respuesta rápida; Los periodistas informan mejor a sus audiencias; Y que los ciudadanos reconozcan los falsos rumores y la manipulación política.

Intereses en competencia

El autor no declara intereses en competencia.

[ad_2]

Source Article Link

Categories
Life Style

Una red de cuentas de TikTok está utilizando inteligencia artificial para difundir desinformación política, según un informe

[ad_1]

Tik Tok El cebo visual ha recibido un impulso de la inteligencia artificial durante el año pasado, incluido contenido que difunde mentiras políticas antes de las elecciones, según Nuevos datos De NewsGuard, una organización que monitorea la información errónea.

En un nuevo informe que detalla el uso de herramientas de inteligencia artificial entre malos actores en TikTok, la organización descubrió al menos 41 cuentas de TikTok que publicaban contenido falso impulsado por inteligencia artificial en inglés y francés. Entre marzo de 2023 y junio de 2024, las cuentas publicaron 9.784 vídeos con un total de más de 380 millones de visitas, un promedio de uno a cuatro vídeos narrativos de IA cada día. Muchos de los videos utilizaron guiones idénticos, lo que indica un esfuerzo coordinado. Varias cuentas también han calificado para monetizar sus videos, bajo el Fondo de Creadores de TikTok.

NewsGuard explicó que una gran parte del contenido incluía videos en forma de artículos o datos divertidos que compartían narrativas falsas sobre la política estadounidense y europea y la guerra entre Rusia y Ucrania, como la afirmación incorrecta de que la OTAN desplegó fuerzas de combate en Ucrania y que Estados Unidos estuvo detrás del ataque terrorista en el Ayuntamiento de Crocus en Moscú el pasado mes de marzo.

La investigación se realizó en asociación con la herramienta de detección de IA TrueMedia.org.

El año pasado, NewsGuard documentó el surgimiento de una pequeña red de cuentas de TikTok utilizando… Herramientas de conversión de texto a voz impulsadas por IA Difundir teorías de conspiración sobre celebridades. Los videos cortos utilizaron inteligencia artificial para generar instantáneamente narraciones y voces adicionales en una amplia gama de videos que comparten información falsa. En total, las cuentas recibieron 336 millones de visitas y 14,5 millones de me gusta en tres meses.

Velocidad de la luz medible

El último informe muestra un aumento significativo en el contenido mejorado con IA en la aplicación, esta vez con motivaciones políticas. Esta tendencia apunta a la presencia de una granja de contenido de IA en crecimiento y cada vez más incentivada en la aplicación, que la organización define como “entidades que generan grandes cantidades de contenido de baja calidad, generalmente para generar vistas e ingresos por publicidad”.

La difusión de información errónea y la desinformación facilitada por la inteligencia artificial no ha pasado desapercibida para TikTok, ya que la plataforma promete volverse más efectiva. adjunto e incluso Filigrana Contenido utilizando inteligencia artificial generativa. Pero la desinformación política, impulsada por la eficiencia de las funciones de inteligencia artificial, ha llevado a… Se siguió multiplicando.

Mientras tanto, el Ministerio de Justicia anunció el 9 de julio que… Se ha identificado y desmantelado una granja rusa de robots con IA Opera al menos 1.000 cuentas pro-Kremlin en X (anteriormente Twitter) y cuenta con el apoyo del sucesor de la KGB del servicio de inteligencia ruso. Hace unos meses, OpenAI anunció que… Se han cerrado cuentas de terceros verificadas Intentar utilizar tecnología de inteligencia artificial para respaldar posibles ataques cibernéticos.

Los propios Estados Unidos han explotado la tecnología de inteligencia artificial y las granjas de robots para difundir sus contranarrativas e incluso campañas de desinformación abierta, incluyendo Iniciativa de 2020 para limitar la influencia extranjera Difundiendo información engañosa sobre el emergente coronavirus (Covid-19).

A medida que se acercan las elecciones (y aumentan las dudas sobre la participación de los votantes y la confianza de los candidatos), los observadores y defensores continúan monitoreando la desinformación dirigida y la desinformación impulsada por inteligencia artificial que se difunde en las plataformas de redes sociales.



[ad_2]

Source Article Link

Categories
Life Style

Los asediados investigadores de la desinformación celebran una decisión clave de la Corte Suprema de Estados Unidos

[ad_1]

Primer plano de una persona navegando por la App X.

La desinformación se difunde fácilmente en las redes sociales.Fotografía: Jaap Ahrens/NoorPhoto/Getty

La Corte Suprema de Estados Unidos dictaminó que el gobierno puede continuar colaborando con investigadores y plataformas de redes sociales en un esfuerzo por frenar la información errónea sobre temas como las elecciones y las vacunas. La decisión no llega a declarar que tales actividades están protegidas como libertad de expresión según la Constitución de los Estados Unidos, pero de todos modos representa una victoria para los investigadores que aún enfrentan demandas alegando que trabajaron con el gobierno para suprimir puntos de vista conservadores.

“Este fallo es una gran victoria para la investigación independiente”, dice Rebecca Trumbull, directora del Instituto de Datos, Democracia y Política de la Universidad George Washington en Washington, D.C. “Al rechazar las teorías de conspiración en el centro del caso, la Corte Suprema demostró que los hechos todavía importan”.

En los últimos cuatro años, investigadores estadounidenses han llevado a cabo dos proyectos de respuesta rápida de alto perfil, codirigidos por el Observatorio de Internet de Stanford en California y la Universidad de Washington en Seattle, para rastrear, informar y combatir la desinformación, cuyo objetivo deliberadamente es difundir la desinformación. . Desinformación e información errónea, que es inexacta pero no necesariamente está alimentada por intenciones maliciosas. Para ambos proyectos, los investigadores difundieron mentiras de forma viral lo más rápido posible a empresas de redes sociales y agencias estadounidenses, y sus informes se hicieron públicos. Mientras tanto, el gobierno federal también estaba señalando este tipo de contenido problemático a Facebook y otras plataformas.

Muchos activistas y políticos conservadores creían que estos esfuerzos tenían motivaciones políticas y apuntaban a los votos republicanos, incluidos aquellos que publicaron en línea, incorrectamente y sin ninguna evidencia, que las elecciones presidenciales estadounidenses de 2020 estaban amañadas. Han iniciado investigaciones en el Congreso y presentado múltiples demandas, incluida una contra el gobierno de Estados Unidos decidida hoy por la Corte Suprema. Este caso fue presentado originalmente en mayo de 2022 en un tribunal de distrito federal de Luisiana por demandantes, incluidos los entonces fiscales generales de Misuri y Luisiana, quienes también cuestionaron si el presidente estadounidense Joe Biden realmente ganó las elecciones de 2020.

En su fallo de hoy, los jueces de la Corte Suprema rechazaron los reclamos de los demandantes, señalando que las plataformas de redes sociales son entidades privadas que comenzaron a tomar sus propias decisiones sobre cómo moderar el contenido mucho antes de que el gobierno de Estados Unidos los contactara sobre información errónea. El tribunal dictaminó que no había pruebas específicas de que las presiones del gobierno para eliminar las falsedades influyeran indebidamente en esas decisiones, y no había pruebas de daño.

La Corte Suprema aún tiene que pronunciarse sobre un caso relacionado que se centra en las regulaciones estatales de EE. UU. que intentan limitar la capacidad de las empresas de redes sociales para regular las conversaciones en sus plataformas.

Queda por ver cómo afectará el fallo a las demandas contra los científicos, pero los juristas y los investigadores de desinformación que los contactaron naturaleza Dicen que el fallo de hoy representa una clara victoria para la libertad académica.

“Encantado.” “Y arreglado” – fue la respuesta naturaleza de Kate Starbirdinvestigador de desinformación de la Universidad de Washington en Seattle, que ha estado involucrado en esfuerzos académicos para combatir la desinformación.

Emitir billetes

Uno de los dos proyectos de respuesta rápida vinculados a la decisión de hoy es Asociación para la integridad electoral, se lanzó a principios de septiembre de 2020 y estuvo en funcionamiento durante 11 semanas. Los investigadores rastrearon Twitter, Facebook y otras plataformas de redes sociales en busca de información errónea sobre las elecciones presidenciales estadounidenses de 2020 y produjeron más de 600 “boletos” por informar publicaciones cuestionables en las plataformas. La mayoría de las narrativas falsas identificadas estaban asociadas con la derecha política, y alrededor del 35% fueron posteriormente etiquetadas, eliminadas o restringidas por las empresas.

Luego, los investigadores modificaron este modelo para crear Proyecto viralque se extendió de febrero a agosto de 2021. Notificaron a las autoridades sanitarias de EE. UU., así como a las empresas de redes sociales, sobre más de 900 casos de publicaciones problemáticas en las redes sociales relacionadas con la pandemia de COVID-19, la mayoría de ellas Centrarse en las mentiras sobre las vacunas.

Además de la presentación presentada hoy ante la Corte Suprema, activistas conservadores bombardearon a los investigadores con solicitudes de registros públicos y presentaron otras demandas acusando a los académicos detrás de los dos proyectos de connivencia con el gobierno federal para limitar la libertad de expresión.

Investigadores y juristas califican esta acusación de ridícula y afirman que no hay pruebas de ello. También afirman que los académicos también tienen derecho a la libertad de expresión y que han estado ejerciendo este derecho estudiando y exponiendo mentiras en Internet. Por ahora, Trumbull dice que es probable que continúen otras demandas. Sin embargo, señala que el desmantelamiento de los argumentos de los demandantes por parte de la Corte Suprema en el fallo de hoy “sin duda ayudaría a los investigadores que están siendo demandados por individuos y organizaciones que hacen afirmaciones distorsionadas similares”.

¿Entonces que?

Las demandas presentadas por activistas conservadores han generado miedo entre los investigadores de la desinformación, y los cambios en el entorno en línea les han dificultado hacer su trabajo. Por ejemplo, después de que el empresario multimillonario Elon Musk comprara Twitter (ahora conocido como X), instituyó políticas que bloquearon el acceso de los académicos a los datos de la plataforma. Y muchas otras empresas de redes sociales. Ellos también retrocedieron Se hacen esfuerzos para moderar el contenido para mayor precisión.

Todo esto ha desalentado los esfuerzos de agencias gubernamentales y académicos para identificar y contrarrestar narrativas falsas, dice Gauri Ramachandran, subdirector del Centro Brennan para la Justicia, un grupo de expertos de la ciudad de Nueva York que aboga por el derecho al voto. Añade que este asunto suscita especial preocupación en un momento en que Estados Unidos se prepara para las próximas elecciones presidenciales, que se celebrarán. Biden y Trump ya se preparan para el enfrentamiento De nuevo, en noviembre.

Por su parte, la Universidad de Stanford ha puesto fin a su trabajo de respuesta rápida en proyectos de desinformación y ha despedido a dos miembros del personal involucrados, aunque los investigadores seguirán trabajando en desinformación relacionada con las elecciones este año. Jeff Hancock, director del Observatorio de Internet de la Universidad de Stanford, dice que la decisión de detener el trabajo de respuesta rápida no tuvo nada que ver con el temor a litigios o investigaciones del Congreso. Si bien reconoce los desafíos de la recaudación de fondos, dice que decidió alinear el trabajo del centro con sus propios intereses de investigación, tras la partida del director anterior del observatorio. Sin embargo, los legisladores y defensores conservadores celebraron la noticia.

“Gran victoria”, Comité Judicial de la Cámara de Representantes de EE.UU. Publicado en 10 el 14 de junio. Luego celebró la “fuerte supervisión” del presidente del comité, Jim Jordan, el representante republicano de Ohio que votó para revocar los resultados de las elecciones de 2020. Jordan inició investigaciones en el Congreso sobre proyectos académicos y de desinformación sobre salud relacionados con las elecciones.

Independientemente del motivo de Stanford para cerrar el programa, la decisión da un impulso a los políticos que socavaron las elecciones de 2020, dice Rene DiResta, miembro del personal del Observatorio de Stanford, cuyo puesto no fue renovado este año. “La derecha está dando vueltas de victoria”, dice. “Todas las universidades deberían estar horrorizadas por esto”.

Hancock lo admite y dice que está frustrado por cómo han resultado las cosas. “Odio que esto se politice”, dice.

Con la renuncia de Stanford, el tipo de respuesta rápida que llevó a cabo la Asociación de Integridad Electoral en 2020 ahora estará dirigida por Starbird y su equipo de la Universidad de Washington. En 2021, la Fundación Nacional de Ciencias de EE. UU. y sus socios otorgaron 2,25 millones de dólares durante cinco años para continuar su trabajo sobre la desinformación. Starbird dice que el proyecto de este año no se parecerá al proyecto de 2020 y no incluirá ningún informe para las plataformas de redes sociales, una actividad realizada por la Universidad de Stanford. Tampoco se centrará mucho en X: al perder el acceso a los datos en esa plataforma, ella y sus colegas están recurriendo a otras fuentes, como Instagram y TikTok. Pero ella dice que el trabajo continuará.

“Estábamos haciendo esto antes del Proyecto de Integridad Electoral y lo haremos después”, dice Starbird.

[ad_2]

Source Article Link

Categories
Life Style

¿Qué tan extendida está la desinformación relacionada con la inteligencia artificial? Lo que nuestros estudios en la India muestran hasta ahora

[ad_1]

Primer plano de dos hombres usando un teléfono inteligente en Mumbai, India

Las redes sociales son un canal importante para la comunicación y el debate político en la India.Crédito: Dheeraj Singh/Bloomberg/Getty

La capacidad de la inteligencia artificial generativa (genAI) para crear texto, imágenes, audio y vídeo que parezcan auténticos es motivo de creciente preocupación en todo el mundo. Ahora que muchos países se dirigen a las urnas este año, la posibilidad de que ese contenido alimente la desinformación y manipule las narrativas políticas representa una preocupante adición a la lista de desafíos que enfrentan las autoridades electorales.

Durante los últimos 12 meses, han surgido varios ejemplos destacados de deepfakes producidos por genAI. Estas incluyen imágenes del candidato presidencial republicano de EE.UU. Donald Trump con un grupo de seguidores afroamericanosgrabación de audio de un político eslovaco Alegando fraude en las próximas elecciones Y fotografiado por Explosión frente al edificio del Pentágono del Departamento de Defensa de EE.UU..

Pero a pesar de la enorme atención que están recibiendo estos deepfakes, los estudios sistemáticos sobre el impacto de la IA genética en la desinformación son limitados. Esto se debe principalmente a que el acceso a datos completos está restringido debido a preocupaciones de privacidad y restricciones impuestas por las plataformas de redes sociales. Muchas preguntas cruciales siguen sin respuesta.

Por ejemplo, no está claro qué tan extendidas están las “noticias falsas” generadas por IA: hay pocos datos concretos disponibles sobre la frecuencia con la que se utilizan técnicas de IA para crear contenido engañoso. Los investigadores tampoco comprenden aún hasta qué punto la información falsa generada por inteligencia artificial se comparte en las redes sociales, ni su impacto en la opinión pública. Estas incertidumbres resaltan los desafíos de abordar la desinformación impulsada por la IA y resaltan la necesidad de una investigación y un seguimiento más sólidos para comprender todos los impactos de estas tecnologías.

Llevamos más de cinco años trabajando en India para comprender cómo los partidos políticos utilizan la plataforma de mensajería WhatsApp para difundir información errónea.1,2. Durante el año pasado, recopilamos datos de usuarios de aplicaciones en la India rural a través de un método de donación de datos que preserva la privacidad.3.

WhatsApp es un canal importante para la comunicación y el debate político en la India4Como es el caso de países como Brasil y Kenia. Nuestra investigación incluye muchos nuevos usuarios de Internet que constituyen una gran proporción de los usuarios rurales de Internet en la India. Es probable que estos usuarios estén menos familiarizados con las capacidades de la IA genética y quizás sean más susceptibles a su influencia que los usuarios experimentados. Aquí compartimos algunos hallazgos de nuestra investigación en curso.

¿Qué tan popular es el contenido genAI?

Elegimos centrar nuestro estudio en Uttar Pradesh, el estado más grande de la India, con una población de más de 220 millones. Contactamos a aproximadamente 500 usuarios, seleccionados para proporcionar una muestra representativa de variables demográficas como edad, religión y secta. Aunque pueda parecer un grupo pequeño de usuarios, esta es una de las muestras más grandes obtenidas al pedir a los usuarios de WhatsApp que donen datos de sus teléfonos con fines de investigación. También observamos patrones de mensajes durante un período lo suficientemente largo como para dar una idea confiable de cómo van las conversaciones políticas. Hicimos esto monitoreando todos los grupos no personales de WhatsApp y descargando automáticamente cualquier mensaje nuevo. Hicimos todo lo posible para eliminar cualquier identificador personal antes de almacenar y analizar datos, y para garantizar que el proceso de consentimiento fuera completo e informativo.3.

El primer conjunto de cartas se recogió entre agosto y octubre del año pasado, justo antes de las principales elecciones regionales. Esto proporcionó un conjunto de datos de casi dos millones de mensajes de grupos privados de WhatsApp, lo que nos dio, por primera vez, una idea de lo que los usuarios comunes de WhatsApp estaban viendo y discutiendo. Los temas variaron ampliamente e incluyeron religión, educación, vida rural y otros asuntos nacionales y locales.

Una mujer no identificada vestida con ropa de color rosa vota en un colegio electoral

Una mujer vota en las elecciones generales indias de 2024.Fotografía: Himanshu Sharma/AFP/Getty

Estábamos particularmente interesados ​​en que el contenido se volviera viral en WhatsApp, que la aplicación marcaba como “reenviado varias veces”. Esta marca se coloca en el contenido que se reenvía a través de una cadena que incluye al menos cinco saltos desde el remitente original. Cinco saltos pueden significar que el mensaje ya se ha distribuido a una gran cantidad de usuarios, aunque WhatsApp no ​​revela el número exacto.

Todavía no existen métodos automatizados para identificar contenido generado por IA a escala, por lo que examinamos manualmente los 1.858 mensajes virales de nuestra muestra. Para anotar imágenes y vídeos de IA genética, inicialmente nos centramos en contenido que mostraba signos claros de haber sido generado por máquina, como algunas anomalías en la composición o mezclas no naturales. También contratamos a especialistas que pueden evaluar la autenticidad de cada contenido centrándose en características que se sabe que son típicas de las creaciones de IA. Reconocemos las limitaciones inevitables en tales evaluaciones hasta que surjan mejores técnicas para caracterizar los materiales generados por genAI.

De los 1.858 mensajes virales, menos de 24 contenían copias de contenido generado por genAI, una huella de solo el 1%. Aunque este número puede estar un poco por debajo del conteo y no incluye mensajes de texto o de voz, el resultado indica que la prevalencia de contenido generado por genes de IA en mensajes virales en la India es relativamente baja. Esto parece haber seguido igual durante las elecciones generales “de múltiples etapas” que acaban de concluir en el país. Seguimos monitoreando el contenido viral y no hemos detectado ningún aumento significativo en el contenido de genAI utilizado en campañas políticas. Es posible que el impacto de la genAI en la desinformación en las elecciones no sea tan generalizado como se temía.

Sin embargo, estos son los primeros días de la tecnología, y nuestros primeros hallazgos demuestran la capacidad de genAI para crear imágenes y narrativas convincentes y culturalmente resonantes, que se extienden mucho más allá de lo que los creadores de contenido tradicionales podrían lograr.

¿Qué muestra el contenido genAI?

Una de las categorías de contenido engañoso que identificamos se relaciona con proyectos de infraestructura. Imágenes visualmente plausibles de IA de una estación de tren futurista, que supuestamente representa una nueva instalación en Ayodhya, una ciudad que muchos hindúes creen que es el lugar de nacimiento del dios Lord Ram, han logrado volverse virales. Las imágenes mostraban una estación limpia con fotografías de Lord Ram en sus paredes. Ayodhya ha sido escenario de tensiones religiosas, especialmente desde que los nacionalistas hindúes demolieron una mezquita en diciembre de 1992 para poder construir un templo sobre sus ruinas.

El rápido desarrollo de la infraestructura, incluida la modernización de las estaciones de tren, es un objetivo político importante del Partido Bharatiya Janata, que busca presentar a la India como una economía en rápida modernización ante el público nacional e internacional. Sin embargo, nuestros datos no proporcionan evidencia directa que vincule al BJP, o cualquier otro partido político, con la creación o difusión de imágenes generadas por IA.

Dos imágenes generadas por IA, una al lado de la otra, que muestran una estación de tren inexistente en la India

Las imágenes generadas por IA difundidas en las redes sociales incluyen una maqueta de la moderna estación de tren de Ayodhya.Crédito: k. garimilla, Preimpresión en GitHub

Otro tema evidente en el contenido de genAI parecen ser las proyecciones de un tipo de superioridad hindú. Por ejemplo, descubrimos vídeos generados por IA que mostraban a santos hindúes musculosos haciendo comentarios ofensivos contra los musulmanes, a menudo haciendo referencia a injusticias históricas. La inteligencia artificial también se ha utilizado para crear imágenes que glorifican a dioses hindúes y a hombres con cuerpos exagerados que lucen símbolos hindúes, una continuación de una táctica propagandística bien documentada y de larga data para promover el dominio hindú en la India. También encontramos medios que representan escenas inventadas de la guerra en curso en Gaza, equiparando sutilmente los ataques del 7 de octubre de 2023 por parte de Hamás contra Israel con la presunta violencia cometida por musulmanes contra hindúes en la India. Utilizar los acontecimientos actuales para atacar a las minorías es una tendencia bien documentada en el contexto sociopolítico indio.5.

¿Qué hay que completar?

Aunque nuestro estudio sugiere que es poco probable que la tecnología genética de IA dé forma a las elecciones por sí sola en este momento, los casos que documentamos demuestran su potencial para personalizar y catalizar campañas de desinformación en el futuro. Incluso si este contenido se parece a un anime, aún así puede ser muy efectivo, porque sus imágenes demasiado idealizadas resuenan a nivel emocional, especialmente entre los espectadores que ya tienen creencias empáticas. Este compromiso emocional, combinado con la autenticidad visual proporcionada por la IA moderna6 – Desdibujar la línea entre animación y realidad puede permitir que dicho contenido sea atractivo, aunque esto requiere más estudio.

Es importante señalar que la información errónea se puede crear fácilmente mediante medios de baja tecnología, como atribuir incorrectamente una fotografía antigua fuera de contexto a un evento actual o mediante el uso de software de edición de fotografías disponible en el mercado. Por lo tanto, es posible que la genAI no cambie mucho la naturaleza de la información errónea.

Sin embargo, a medida que la tecnología madure y se vuelva más accesible, aumentará la necesidad de vigilancia y contramedidas. GenAI se puede utilizar para crear una gran cantidad de imágenes de forma rápida y económica, y brinda la capacidad de personalizar dinámicamente el contenido para adaptarlo a grupos culturales o sociales específicos. Su uso también puede ocultar el origen del contenido, lo que dificulta rastrear a sus creadores. Esta combinación de escalabilidad, rentabilidad, personalización y anonimato podría mejorar la influencia de genAI en la opinión pública.

A medida que esta tecnología disruptiva siga evolucionando, será fundamental realizar un seguimiento continuo de su propagación e impacto en diferentes contextos. En el contexto indio y en otros lugares, los investigadores deben profundizar en tres aspectos clave relacionados con el impacto de la IA en la sociedad y la política.

¿Puede la genAI nivelar el campo de juego? La GenAI tiene el potencial de alterar la dinámica de poder actual en la producción de contenidos. Al democratizar la creación de contenidos, desafía el dominio de los partidos políticos con buenos recursos.

¿Pueden las empresas de redes sociales hacer más? La naturaleza descentralizada de WhatsApp presenta tanto oportunidades como desafíos para la distribución de contenido. Aunque permite una amplia difusión de información, también complica los esfuerzos para regular y moderar el contenido. La capacidad de GenAI para crear contenido personalizado y dirigido a escala puede amplificar los sesgos y las cámaras de eco existentes. Sin mecanismos de moderación eficaces, las plataformas corren el riesgo de convertirse en un caldo de cultivo para la desinformación y la propaganda.

¿Cómo influye la genAI en las creencias? Aunque hoy en día los usuarios pueden detectar contenido generado por genAI, puede resultar cada vez más difícil distinguir entre lo real y lo falso a medida que la tecnología mejora. Esto es particularmente preocupante en el contexto de aplicaciones de mensajería como WhatsApp, porque es más probable que los usuarios crean en el contenido que reciben de grupos o individuos de confianza, incluso si es engañoso o falso.7.

Por lo tanto, los formuladores de políticas deben desarrollar estrategias globales y locales integrales para combatir los efectos nocivos del contenido generado por IA. Los mensajes públicos para enfatizar la importancia de la verificación de la fuente son clave. Crear un marco para marcar el contenido como generado por IA es una necesidad urgente. También es importante lanzar campañas de concientización pública para educar a las comunidades, especialmente a los usuarios de tecnología sin experiencia, sobre los matices del contenido generado por IA.

Los nuevos marcos regulatorios desarrollados en colaboración, en los que participan los gobiernos, la industria tecnológica y el mundo académico, pueden garantizar que las normas sigan el ritmo de los avances en IA. La última pieza del rompecabezas es mantener el apoyo a la investigación para crear tecnologías de vanguardia que puedan detectar la IA a escala, un requisito crítico en la era de los medios sintéticos.

Se debe tener mucho cuidado al diseñar mecanismos de mitigación, porque comprometer la privacidad y la seguridad digital para atacar la información errónea impulsada por la IA podría ser contraproducente. Advertimos firmemente contra propuestas que podrían socavar el cifrado de extremo a extremo en plataformas como WhatsApp.

[ad_2]

Source Article Link