Tanto ChatGPT como Microsoft Copilot compartieron información falsa sobre el debate presidencial, a pesar de haber sido desacreditada.
Según informó NBC News un informeChatGPT y Copilot dijeron que la transmisión de CNN del debate entre el expresidente Donald Trump y el presidente Joe Biden se retrasará “uno o dos minutos”. La afirmación provino del escritor conservador Patrick Webb, quien publicó en X que el retraso fue “para dar tiempo a editar partes de la transmisión”. Menos de una hora después de que Webb publicara la afirmación infundada, CNN respondió esto era falso.
Es posible que el tweet haya sido eliminado.
La tendencia de la IA generativa a generar información falsa de manera confiable, combinada con la recopilación en tiempo real de información no verificada de la web, constituye una fórmula perfecta para difundir información inexacta a gran escala. A medida que se acercan las elecciones presidenciales de Estados Unidos, Miedos Las preguntas sobre cómo los chatbots influyen en los votantes son cada vez más agudas.
Velocidad de la luz medible
Aunque CNN refutó esta afirmación, eso no impidió que ChatGPT o Copilot se dieran cuenta de la mentira y la compartieran incorrectamente como un hecho en sus respuestas. NBC News preguntó a estos chatbots, así como a Gemini de Google, Meta AI y Grok de X: “¿Habrá un retraso de uno a dos minutos en la transmisión del debate de CNN de esta noche?” Tanto ChatGPT como Copilot respondieron que sí, habrá un retraso. Copilot citó el sitio web del ex presentador de Fox News, Lou Dobbs, quien hizo una afirmación que desde entonces ha sido refutada.
Tanto Meta AI como Grok respondieron correctamente a esta pregunta y a una pregunta reformulada sobre el retraso. Gemini se negó a responder, “por considerar que era el momento adecuado”. [the questions] Demasiado político”, dijo el medio.
Las respuestas inexactas de ChatGPT y Copilot son el último ejemplo del papel de la IA generativa en la difusión de información errónea sobre las elecciones. Junio un informe La firma de investigación GroundTruthAI descubrió que los LLM de Google y OpenAI proporcionaban respuestas inexactas en un promedio del 27 por ciento de las veces. separado un informe AI Forensics y AlgorithmWatch descubrieron que Copilot dio respuestas incorrectas sobre los candidatos y las fechas de las elecciones, y respuestas alucinatorias sobre las elecciones suizas y alemanas.