La herramienta de inteligencia artificial ayuda a las personas con puntos de vista opuestos a encontrar puntos en común


En algunos casos, la IA hace un mejor trabajo que un humano al resumir la opinión colectiva de un grupo. Crédito: Rawpixel Ltd/Getty

Una herramienta similar a un chatbot impulsada por inteligencia artificial (IA) puede ayudar a personas con diferentes puntos de vista a encontrar áreas de acuerdo, según ha demostrado una prueba con grupos de discusión en línea.

El modelo, desarrollado por Google DeepMind en Londres, fue capaz de agregar opiniones dispares y producir resúmenes de la posición de cada grupo que tenían en cuenta diferentes puntos de vista. Los participantes prefirieron los resúmenes generados por IA a los escritos por mediadores humanos, lo que sugiere que dichas herramientas podrían usarse para ayudar a respaldar deliberaciones complejas. El estudio fue publicado en la revista Science el 17 de octubre.1.

“Puede verse como una especie de prueba de concepto de que se puede utilizar inteligencia artificial, y específicamente, grandes modelos de lenguaje, para lograr parte de la función que desempeñan las asambleas ciudadanas y las encuestas deliberativas actuales”, dice Christopher Summerfield, coautor del. Director de Estudios e Investigaciones del Artificial Intelligence Safety Institute del Reino Unido. “La gente necesita encontrar puntos en común porque el trabajo en equipo requiere acuerdos”.

maquina niveladora

Las iniciativas democráticas, como las asambleas ciudadanas, donde se pide a grupos de personas que compartan sus opiniones sobre cuestiones de política pública, ayudan a garantizar que los políticos escuchen una amplia gama de puntos de vista. Pero ampliar estas iniciativas puede resultar difícil y estos debates suelen limitarse a grupos pequeños para garantizar que se escuchen todas las voces.

Interesados ​​en investigar el potencial de los LLM para respaldar estas discusiones, Summerfield y sus colegas desarrollaron un estudio para evaluar cómo la inteligencia artificial podría ayudar a las personas con puntos de vista opuestos a llegar a un acuerdo.

See also  El devastador costo de los doctorados en salud mental: los datos revelan efectos severos

Implementaron una versión modificada de DeepMind LLM Chinchilla previamente entrenada, a la que llamaron Máquina Habermas, en honor al filósofo Jürgen Habermas, quien desarrolló una teoría sobre cómo la discusión racional puede ayudar a resolver conflictos.

Para probar su modelo, los investigadores reclutaron a 439 residentes del Reino Unido y los dividieron en grupos más pequeños. Cada grupo discutió tres cuestiones de política del Reino Unido y compartió sus opiniones personales sobre cada una. Luego, estas opiniones se enviaron al dispositivo de inteligencia artificial, que produjo datos completos que combinaron las opiniones de todos los participantes. Los participantes pudieron calificar cada afirmación y compartir críticas relacionadas, que luego la IA combinó en un resumen final del punto de vista colectivo del grupo.

“El modelo está entrenado para tratar de hacer una declaración que tenga el máximo apoyo de un grupo de personas que han ofrecido sus opiniones voluntariamente”, dice Summerfield. “Debido a que el modelo sabe cuáles son sus preferencias en estas frases, puede producir una frase que probablemente agrade a todos”.

Junto con la IA, uno de los participantes fue elegido como mediador. También se les pidió que prepararan un resumen que incluyera mejor las opiniones de los participantes. A los participantes se les mostró la IA final y los resúmenes mediados y se les pidió que los calificaran.

La mayoría de los participantes calificaron los resúmenes escritos por la IA como mejores que los escritos por el moderador. El 56% de los participantes prefirió el trabajo con IA, en comparación con el 44% que prefirió un resumen humano. También se pidió a revisores externos que calificaran los resúmenes y otorgaron a los resúmenes basados ​​en IA calificaciones más altas en términos de equidad, calidad y claridad.

See also  Apple está trabajando actualmente para aumentar el "conocimiento de pantalla" de Siri, lo que le permitirá interactuar con su pantalla.

Luego, el equipo de investigación reclutó a un grupo de participantes demográficamente representativos de la población del Reino Unido para una asamblea ciudadana virtual. En este escenario, el acuerdo grupal sobre temas controvertidos aumentó después de interactuar con la IA. Este hallazgo sugiere que si las herramientas de IA se integran en una asamblea ciudadana real, pueden facilitar que los líderes produzcan propuestas de políticas que tengan en cuenta diferentes puntos de vista.

“El LLM se puede utilizar de muchas maneras para ayudar en las deliberaciones y desempeñar funciones previamente reservadas a los moderadores humanos”, dice Ethan Busby, quien investiga cómo las herramientas de inteligencia artificial pueden mejorar las sociedades democráticas en la Universidad Brigham Young en Provo, Utah. “Creo que se trata de un trabajo de vanguardia en este campo que tiene un gran potencial para abordar problemas sociales y políticos apremiantes”. Summerfield añade que la inteligencia artificial puede ayudar a que los procesos de resolución de disputas sean más rápidos y eficientes.

Conexiones perdidas

“Aplicar estas técnicas a experimentos y procesos deliberativos es realmente bueno”, afirma Sami McKinney, que investiga la democracia deliberativa y sus intersecciones con la inteligencia artificial en la Universidad de Cambridge, en el Reino Unido. Pero añade que los investigadores deberían considerar cuidadosamente los efectos potenciales de la IA en el lado humano de la deliberación. “Una de las principales razones para apoyar la deliberación ciudadana es que crea ciertos tipos de espacios para que las personas se conecten entre sí”, dice. “Al eliminar más contacto humano e instalaciones humanas, ¿qué perdemos?”

Summerfield reconoce las limitaciones asociadas con técnicas de IA como ésta. “No entrenamos al modelo para que intentara interferir con las deliberaciones”, dice, lo que significa que la declaración del modelo podría incluir creencias extremas u otras creencias problemáticas. Añade que una investigación cuidadosa sobre el impacto de la IA en la sociedad es crucial para comprender su valor.

See also  Las mejores ofertas de Amazon Prime Day TV que aún están vigentes hoy: ahorre mucho en televisores de Samsung, LG, TCL y más

“Me parece importante tener cuidado y luego tomar medidas para mitigar esas preocupaciones cuando sea posible”, dice McKinney.



Source Article Link

Leave a Comment