Los expertos en inteligencia artificial creen que los modelos de lenguajes grandes (LLM) pueden servir como intermediarios en ciertos escenarios donde no se pueden llegar a acuerdos entre individuos.
Un estudio reciente realizado por investigadores de Google DeepMind buscó explorar el uso potencial del MBA en este sentido, particularmente en relación con la resolución de disputas controvertidas en medio del clima político polémico a nivel mundial.
“A menudo resulta difícil llegar a acuerdos mediante el libre intercambio de opiniones”. Los autores del estudio señalaron. “La deliberación colectiva puede ser lenta, difícil de escalar y preocupada de manera desigual por las diferentes voces”.
ganando el grupo
Como parte del proyecto, el equipo de DeepMind capacitó a una serie de titulares de un LLM llamados “Habermas Machines” (HM) para que actuaran como mediadores. Estos modelos han sido entrenados específicamente para identificar creencias compartidas y superpuestas entre individuos en ambos extremos del espectro político.
Los temas cubiertos por el LLM incluyeron cuestiones polémicas como la inmigración, el Brexit, el salario mínimo, el cuidado infantil universal y el cambio climático.
“Utilizando las opiniones y críticas personales de los participantes, el moderador de IA genera y refina de forma iterativa declaraciones que expresan puntos en común del grupo sobre cuestiones sociales o políticas”, escribieron los autores.
En el proyecto también participaron voluntarios que interactuaron con el modelo, que se basaba en las opiniones y puntos de vista de cada individuo sobre temas políticos específicos.
Luego, el modelo recopiló breves documentos de opiniones políticas voluntarias, lo que proporcionó un contexto adicional para ayudar a cerrar las divisiones.
Los resultados fueron muy prometedores, ya que el estudio reveló que los voluntarios valoraron más las declaraciones de Su Majestad que las declaraciones humanas sobre los mismos temas.
Además, después de dividir a los voluntarios en grupos para discutir más a fondo estos temas, los investigadores descubrieron que los participantes estaban menos divididos sobre estos temas después de leer las declaraciones de HM en comparación con los documentos de moderadores humanos.
Los investigadores concluyeron que “las declaraciones de opinión grupal generadas por la máquina de Habermas fueron consistentemente preferidas por los miembros del grupo sobre las escritas por moderadores humanos y recibieron calificaciones más altas de jueces externos en términos de calidad, claridad, informatividad y equidad percibida”.
“La deliberación mediada por IA también redujo la división dentro de los grupos, ya que las posiciones informadas por los participantes convergieron hacia una posición común sobre el tema después de la deliberación; este resultado no ocurrió cuando los participantes intercambiaron puntos de vista directamente, sin mediación”.
El estudio señaló que el “apoyo a la posición mayoritaria” sobre ciertos temas aumentó después de deliberaciones apoyadas por AI. Sin embargo, Sus Majestades “incluyeron explícitamente críticas de las minorías en las declaraciones revisadas”.
Lo que esto sugiere es que durante las deliberaciones mediadas por la IA, “las opiniones de los grupos de participantes tienden a moverse en una dirección similar sobre temas controvertidos”, dijeron los investigadores.
“Estos cambios no fueron atribuibles a sesgos en la IA, lo que sugiere que el proceso de deliberación realmente ayudó a surgir puntos de vista compartidos sobre posibles cuestiones sociales y políticas”.
Ya existen ejemplos de la vida real del uso de LLM para resolver conflictos, especialmente en las relaciones, con Algunos usuarios en Reddit Después de informar el uso ChatGPTPor ejemplo.
Un usuario informó que su pareja usaba chatbot “Cada vez” no están de acuerdo y eso genera fricciones.
“Yo (25) y mi novia (28) hemos estado saliendo durante 8 meses. Últimamente hemos tenido grandes discusiones y algunos pequeños desacuerdos”, escribió el usuario. “Cada vez que discutimos, mi novia se aleja y toma la decisión. argumento para ella ChatGPTA veces incluso haciéndolo en la misma habitación.
Cabe destacar que el usuario encontró en estas ocasiones que su pareja podía “volver con un argumento bien construido” analizando todo lo dicho o hecho durante la discusión anterior.
Sin embargo, es este aspecto de la situación el que ha causado una gran tensión.
“Le dejé claro que no me gustaba que hiciera eso porque podría sentir como si un robot me estuviera emboscando con pensamientos y opiniones”, escribieron. “Es casi imposible para un humano recordar todos los pequeños detalles y desglosarlos poco a poco, pero la IA no tiene problemas para hacerlo”.
“Cada vez que expresaba mi malestar, me lo decían. “ChatGPT dice que no estás seguro” o “ChatGPT dice que no tienes el ancho de banda emocional para entender lo que estoy diciendo”“.