Si necesita un testigo experto para un caso judicial, asegúrese de que no esté utilizando un chatbot con tecnología de inteligencia artificial para su supuesta experiencia.
La semana pasada, un juez de Nueva York reprendió a un perito en bienes raíces Situación de conflicto Para utilizar el chatbot asistente de IA de Microsoft.
Microsoft Copilot ahora puede hablar: 3 nuevas características que lo hacen más parecido a ChatGPT y Google Gemini
El perito Charles Ransone utilizó al copiloto para hacer una evaluación de los daños y perjuicios que deberían concederse al demandante en el caso. El caso fue primero mencioné Por Ars Technica.
Copiloto en el tribunal: mala idea
El caso central de esta historia se refiere a una disputa sobre una propiedad de alquiler de 485.000 dólares en las Bahamas. El propietario de la propiedad había fallecido y la propiedad había sido depositada en un fideicomiso para el hijo del difunto. La hermana del fallecido era la responsable de implementar el fideicomiso. Sin embargo, la hermana fue acusada de incumplimiento de sus deberes fiduciarios al retrasar la venta de la propiedad mientras la usaba para su uso personal.
Una parte clave para ganar el caso del hijo fue demostrar que las acciones de su tía lo habían perjudicado.
Ranson fue traído como testigo experto y se le asignó la tarea de evaluar esos daños.
Si bien Ranson tiene experiencia en cuestiones de fideicomisos y patrimonio, según el juez Jonathan Schopf, “no tenía experiencia relevante en bienes raíces”. Entonces, Ransone recurrió al chatbot de Microsoft, Copilot.
Ransone parece haber revelado el uso del copiloto en su testimonio. Cuando se le preguntó sobre esto, Ranson no pudo recordar los factores desencadenantes que utilizó para evaluar los daños ni las fuentes que Copilot citó para llegar a su estimación. Ranson tampoco pudo explicar cómo funciona el copiloto.
Velocidad de la luz triturable
Luego, el tribunal decidió utilizar el copiloto para ver si podía alcanzar la misma estimación que Ranson. El tribunal preguntó al copiloto: “¿Puede calcular el valor de 250.000 dólares invertidos en el Vanguard Balanced Index Fund desde el 31 de diciembre de 2004 hasta el 31 de enero de 2021?”
El copiloto dio una respuesta diferente en tres intentos diferentes, y cada respuesta fue diferente de la cantidad que generó Ranson.
Luego, el tribunal preguntó a Copilot si era una fuente confiable de información, y Copilot respondió diciendo que sus conclusiones siempre deberían ser verificadas por expertos.
Según el juez, Ransone insistió en que las herramientas de inteligencia artificial como Copilot eran de uso estándar en su industria, pero no pudo citar una sola fuente que dijera que eso fuera cierto.
El uso de un chatbot por parte de Ranson no fue su único error. Sin embargo, el estatus del copiloto ciertamente afectó la credibilidad del perito. El juez consideró que las pruebas demostraban que la demora en la venta de la propiedad resultó no sólo en una pérdida, sino también en una ganancia adicional para el hijo, y dictaminó que no hubo incumplimiento del deber fiduciario por parte de la tía.
No es la primera vez y probablemente no será la última.
El uso de Copilot por parte de Ranson como fuente experta de información ciertamente no es la primera vez que se utilizan chatbots impulsados por inteligencia artificial en una sala del tribunal.
Los lectores tal vez recuerden al abogado Stephen Schwartz, quien el año pasado el depende En ChatGPT en presentaciones legales de un caso en el que un cliente de una aerolínea resultó herido durante un vuelo. Schwartz fue amonestado tras presentar documentos que indicaban casos que no existían en absoluto. Schwartz utilizó ChatGPT en su investigación, y el chatbot basado en IA generó casos anteriores, que luego Schwartz incluyó en sus archivos.
Como resultado, Schwartz y otro abogado de la firma donde trabajaba Multado 5.000 dólares del tribunal por “actuar de mala fe”.
Mismo escenario sucedió de nuevo Con otro abogado, Jay Lee, que utilizó ChatGPT en sus archivos a principios de este año. De nuevo ChatGPT alucinaciones que no existían.
En el caso inmobiliario de las Bahamas, el juez Schopf enfatizó que la culpa no era del chatbot con IA, sino del usuario por citarlo. Sin embargo, los chatbots impulsados por inteligencia artificial continúan extendiéndose por Internet y las principales empresas tecnológicas como Google y Microsoft están intensificando la promoción de esta tecnología entre los usuarios.