ChatGPT Pudo superar a los médicos humanos en el diagnóstico de enfermedades y afecciones médicas en un estudio. Los resultados del estudio se publicaron el mes pasado y destacaron que los chatbots con inteligencia artificial (IA) pueden ser más eficientes para analizar el historial y el estado de un paciente y proporcionar diagnósticos más precisos. Si bien el estudio tenía como objetivo comprender si los chatbots con tecnología de inteligencia artificial pueden ayudar a los médicos a brindar mejores diagnósticos, los resultados revelaron inesperadamente que el chatbot con tecnología GPT-4 de OpenAI funcionó mucho mejor cuando se realizó sin asistencia humana en comparación con cuando se combinó con un médico.
ChatGPT supera a los médicos en el diagnóstico de enfermedades
el el estudiaFue publicado en la revista JAMA Network Open y realizado en el Centro Médico Beth Israel Deaconess en Boston por un grupo de investigadores. El ensayo tiene como objetivo descubrir si la inteligencia artificial puede ayudar a los médicos a diagnosticar enfermedades mejor que los métodos tradicionales.
Según el New York Times un informeEl ensayo incluyó a 50 médicos que eran una mezcla de residentes y médicos matriculados en la facultad de medicina. Fueron reclutados a través de varios sistemas hospitalarios grandes en los Estados Unidos y recibieron seis registros de casos de pacientes. Según se informó, se pidió a los sujetos que sugirieran un diagnóstico para cada afección y proporcionaran una explicación de por qué favorecían o descartaban diagnósticos particulares. También se dijo que los médicos se clasifican en función de si su diagnóstico final es correcto.
Para evaluar el desempeño de cada participante, se seleccionaron expertos médicos como estudiantes de la clase. Si bien se dijo que se les mostraron las respuestas, no se les dijo si la respuesta provino de un médico con acceso a la IA, solo del médico o solo de ChatGPT.
Además, para eliminar la posibilidad de registros de casos poco realistas, los investigadores supuestamente seleccionaron registros de casos de pacientes reales que habían sido utilizados por los investigadores durante décadas pero que nunca se habían publicado para evitar la contaminación. Este punto es importante porque ChatGPT no se puede entrenar con datos que nunca han sido publicados.
Los resultados del estudio fueron sorprendentes. Los médicos que no utilizaron ninguna herramienta de inteligencia artificial para diagnosticar el historial de un caso obtuvieron una puntuación media del 74 %, mientras que los médicos que utilizaron un chatbot obtuvieron una puntuación media del 76 %. Sin embargo, cuando ChatGPT por sí solo analizó el historial del caso y proporcionó un diagnóstico, obtuvo una puntuación promedio del 90%.
Si bien varios factores podrían influir en los resultados del estudio, desde el nivel de experiencia de los médicos hasta los sesgos individuales con ciertos diagnósticos, los investigadores creen que el estudio destaca que no se puede ignorar el potencial de los sistemas de IA en las instituciones médicas.