Un chatbot con IA hace que los teóricos de la conspiración cuestionen sus creencias


Las teorías de conspiración y la desinformación se han extendido rápidamente durante la pandemia de COVID-19. Crédito de la imagen: Holly Adams/Getty

Los investigadores han demostrado que la inteligencia artificial puede ser una herramienta valiosa en la lucha contra las teorías de la conspiración, al diseñar un chatbot que puede desacreditar información falsa e incitar a las personas a cuestionar su forma de pensar.

En un estudio publicado en ciencias El 12 de septiembre1Los participantes pasaron unos minutos interactuando con el chatbot, que proporcionó respuestas y argumentos detallados, y experimentaron un cambio de pensamiento que duró meses. Este hallazgo sugiere que los hechos y las pruebas realmente pueden cambiar la opinión de las personas.

“Este artículo realmente desafió gran parte de la literatura existente sobre nosotros viviendo en una sociedad de posverdad”, dice Katherine Fitzgerald, quien investiga teorías de conspiración y desinformación en la Universidad Tecnológica de Queensland en Brisbane, Australia.

Análisis anteriores han sugerido que la gente se siente atraída por las teorías de la conspiración debido al deseo de seguridad y certeza en un mundo turbulento. Pero “lo que encontramos en este artículo va en contra de esta interpretación tradicional”, dice Thomas Costello, coautor del estudio e investigador de psicología de la American University en Washington, DC. “Una aplicación potencialmente interesante de esta investigación es que se puede utilizar la inteligencia artificial para desacreditar teorías de conspiración en la vida real”.

Pensamientos dañinos

Las encuestas de opinión indican que alrededor del 50% de los estadounidenses cree en teorías de conspiración, que van desde la falsificación del alunizaje humano en 1969 hasta las vacunas Covid-19 que contienen chips electrónicos que permiten la vigilancia masiva. El auge de las plataformas de redes sociales que permiten el intercambio de información fácilmente ha exacerbado el problema.

See also  Usuarios de Android...¡cuidado! El malware que roba SMS apunta a los teléfonos inteligentes para acceder a los datos de los usuarios

Aunque muchas teorías de conspiración no tienen un impacto significativo en la sociedad, aquellas que se difunden pueden “causar un daño real”, dice Fitzgerald. Señala como ejemplos el ataque al Capitolio de Estados Unidos el 6 de enero de 2021, que fue provocado en parte por acusaciones de que las elecciones presidenciales de 2020 estaban amañadas, y la retórica antivacunas que afectó la adopción de la vacuna Covid-19.

Es posible persuadir a las personas para que cambien lo que piensan, pero hacerlo puede llevar mucho tiempo y energía, y la gran cantidad y variedad de teorías de conspiración dificulta abordar el problema a gran escala. Pero Costello y sus colegas querían explorar el potencial de los modelos lingüísticos a gran escala (que pueden procesar rápidamente enormes cantidades de información y generar respuestas similares a las humanas) para abordar las teorías de la conspiración. “Han sido entrenados en Internet, conocen todas las conspiraciones y conocen todas las respuestas a ellas, por lo que parecía una combinación perfecta”, dice Costello.

Por extraño que parezca

Los investigadores diseñaron un chatbot personalizado utilizando GPT-4 Turbo, el último programa LLM de OpenAI, la empresa con sede en San Francisco, California, que creó ChatGPT, que fue entrenado para argumentar de manera persuasiva contra las conspiraciones. Luego reclutaron a más de 1.000 participantes, cuyos datos demográficos coincidieron con el censo de EE. UU. en características como género y raza. Al reclutar “personas con diferentes experiencias de vida que aportan sus propias perspectivas”, dice Costello, el equipo puede evaluar la capacidad del chatbot para desacreditar una variedad de conspiraciones.

Se pidió a cada participante que describiera una teoría de la conspiración, compartiera por qué creía que era cierta y expresara la fuerza de su creencia como porcentaje. Estos detalles se compartieron con el chatbot, que luego entabló una conversación con el participante, señalando información y evidencia que socavaba o refutaba la conspiración y respondía a las preguntas del participante. Las respuestas del chatbot fueron completas y detalladas, y a menudo contaban con cientos de palabras. En promedio, cada conversación duró unos 8 minutos.

Este enfoque resultó eficaz: la confianza de los participantes en la teoría de la conspiración elegida disminuyó en una media del 21% después de interactuar con el chatbot. El 25% de los participantes pasó de tener confianza en su pensamiento, donde recibieron una puntuación superior al 50%, a estar inseguros. El cambio fue mínimo para los grupos de control, que hablaron con el mismo chatbot durante un período de tiempo similar pero sobre un tema no relacionado. Una encuesta de seguimiento dos meses después mostró que el cambio de perspectiva continuaba para muchos participantes.

Aunque los resultados del estudio son prometedores, los investigadores señalan que los participantes fueron encuestados remunerados y pueden no ser representativos de personas que creen firmemente en las teorías de la conspiración.

Intervención efectiva

Fitzgerald está entusiasmado con la capacidad de la inteligencia artificial para combatir las conspiraciones. “Si podemos encontrar una manera de intervenir y detener la violencia fuera de línea, eso siempre es algo bueno”, dice. Ella sugiere que los estudios de seguimiento exploren diferentes métricas para evaluar la efectividad de un chatbot, o replicar el estudio utilizando software de inteligencia artificial con medidas de seguridad menos avanzadas para garantizar que no promueva el pensamiento conspirativo.

See also  Cómo limpiar la pantalla de tu portátil

Estudios anteriores han planteado preocupaciones sobre la tendencia de los chatbots a “exagerar” información falsa. El estudio tuvo cuidado de evitar esta posibilidad: el equipo de Costello pidió a un verificador de datos profesional que calificara la exactitud de la información proporcionada por el chatbot, quien confirmó que ninguna de sus declaraciones era falsa o políticamente sesgada.

Costello dice que el equipo planea realizar más experimentos para investigar diferentes estrategias de chatbot, por ejemplo, probando qué sucede cuando las respuestas del chatbot son groseras. Al identificar “experimentos en los que la persuasión ya no funciona”, esperan aprender más sobre por qué este estudio fue particularmente exitoso.



Source Article Link

Leave a Comment