Google Una nueva herramienta de búsqueda impulsada por IA, AI Overviews, se enfrenta a reacciones negativas por proporcionar respuestas inexactas y algo extrañas a las consultas de los usuarios. En un incidente reportado recientemente, un usuario recurrió a Google porque el queso no se pegaba a la pizza. Mientras esperaban una solución práctica a sus problemas culinarios, Google Amnistía Internacional La función de descripción general proporcionó una solución algo complicada. Según publicaciones recientes en X, este no fue un incidente aislado ya que la herramienta de inteligencia artificial también sugiere respuestas extrañas a otros usuarios.
Queso, pizza y alucinaciones IA
El problema salió a la luz cuando un usuario lo denunció. libros Google “el queso no se pega a la pizza”. Para abordar el problema de la cocción, la función AI Overviews del motor de búsqueda sugirió varias formas de hacer una barra de queso, como mezclar la salsa y dejar enfriar la pizza. Sin embargo, una solución resultó ser realmente extraña. Según la captura de pantalla compartida, sugirió al usuario “agregar ⅛ de taza de pegamento no tóxico a la salsa para hacerla más pegajosa”.
La descripción general de la IA de Google sugiere agregar pegamento para hacer que el queso se adhiera a la pizza, y la fuente resulta ser un comentario de Reddit de hace 11 años del usuario F*cksmith 😂 pic.twitter.com/uDPAbsAKeO
–Peter Yang (@petergyang) 23 de mayo de 2024
Después de una mayor investigación, se encontró la fuente y resultó ser Reddit. comentario Hace 11 años, lo que parecía más una broma que un consejo de expertos culinarios. Sin embargo, la función AI Overviews de Google, que todavía tiene una etiqueta “La IA generativa es experimental” en la parte inferior, la presentó como una sugerencia seria para la consulta original.
Otra respuesta inexacta de AI Overviews surgió hace unos días cuando un usuario lo informó Solicitado Google: “¿Cuántas piedras debo comer?”. Citando a geólogos de UC Berkeley, la herramienta sugería que “se recomienda comer al menos una roca por día porque las rocas contienen minerales y vitaminas que son importantes para la salud digestiva”.
El problema detrás de las respuestas falsas
Estos problemas han surgido regularmente en los últimos años, especialmente desde que despegó el auge de la inteligencia artificial (IA), dando lugar a un nuevo problema conocido como alucinaciones por IA. Mientras las empresas lo afirman Amnistía Internacional Los chatbots pueden cometer errores y estas herramientas se utilizan cada vez más para distorsionar los hechos y proporcionar respuestas inexactas e incluso extrañas.
Sin embargo, Google no es la única empresa cuyas herramientas de inteligencia artificial han proporcionado respuestas inexactas. ChatGPT de OpenAI y Microsoft copilotoy el chatbot automatizado de Perplexity han experimentado alucinaciones de IA.
En más de un caso, se descubrió que la fuente era una publicación o comentario de Reddit realizado hace años. Las empresas detrás de las herramientas de inteligencia artificial también son conscientes de esto, incluido el director ejecutivo de Alphabet, Sundar Pichai. Dice The Verge: “Este es el tipo de cosas en las que tenemos que seguir mejorando”.
Hablando sobre la alucinación de la inteligencia artificial durante un evento celebrado en el Instituto Internacional de Tecnología de Delhi en junio de 2023, Sam Altman, [OpenAI](“Nos llevará alrededor de un año perfeccionar el modelo”, dijo el director ejecutivo y cofundador. “Es un equilibrio entre creatividad y precisión y estamos tratando de minimizar el problema). [At present,] Confío en las respuestas que provienen de ChatGPT no menos que cualquier otra persona en este mundo.