Una nueva encuesta encontró que uno de cada cinco médicos generales (GP) en el Reino Unido utiliza herramientas de inteligencia artificial como ChatGPT para ayudar con tareas diarias como sugerir diagnósticos y escribir cartas a los pacientes.
El investigaciónpublicado en la revista BMJ Health and Care Informatics, encuestó a 1.006 médicos de cabecera de todo el mundo sobre su uso de chatbots de IA en la práctica clínica.
Alrededor del 20% informó que utilizaba herramientas de inteligencia artificial generativa, siendo ChatGPT la más popular. De quienes usan IA, el 29% dijo que la emplearon para generar documentación después de las citas con los pacientes, mientras que el 28% la usó para sugerir diagnósticos potenciales.
“Estos hallazgos indican que los médicos de cabecera pueden obtener valor de estas herramientas, particularmente en tareas administrativas y para respaldar el razonamiento clínico”, señalaron los autores del estudio.
Como comentó la Dra. Charlotte Blease, autora principal del estudio: “A pesar de la falta de orientación sobre estas herramientas y las políticas laborales poco claras, los médicos de cabecera informan que las utilizan para ayudar en su trabajo. La comunidad médica necesitará encontrar maneras de educar a los médicos y a los estudiantes sobre los beneficios potenciales de estas herramientas al resumir información, pero también sobre los riesgos en términos de alucinaciones, sesgos algorítmicos y el potencial de comprometer la privacidad del paciente”.
Ese último punto es clave. Pasar información del paciente a sistemas de inteligencia artificial probablemente constituya una violación de la privacidad y la confianza del paciente.
La Dra. Ellie Mein, asesora médico-legal del Medical Defense Union, estuvo de acuerdo en las cuestiones clave: “Junto con los usos identificados en el artículo de BMJ, hemos descubierto que algunos médicos están recurriendo a programas de IA para ayudar a redactar respuestas a quejas para a ellos. Hemos advertido a los miembros de MDU sobre los problemas que esto plantea, incluida la inexactitud y la confidencialidad del paciente. También hay consideraciones de protección de datos”.
Y añadió: “Cuando se trata de quejas de pacientes, las respuestas redactadas por IA pueden parecer plausibles, pero pueden contener inexactitudes y hacer referencia a pautas incorrectas que pueden ser difíciles de detectar cuando se entrelazan en pasajes de texto muy elocuentes. Es vital que los médicos utilicen la IA de forma ética y cumplan con las directrices y normativas pertinentes”.
No tenemos idea de cuántos artículos utilizó OpenAI para entrenar sus modelos, pero ciertamente son más de los que cualquier médico podría haber leído. Ofrece respuestas rápidas y convincentes y es muy fácil de usar, a diferencia de la búsqueda manual de artículos de investigación.
¿Eso significa que ChatGPT es generalmente preciso para el asesoramiento clínico? No. Los modelos de lenguaje grande (LLM, por sus siglas en inglés) como ChatGPT están previamente entrenados con cantidades masivas de datos generales, lo que los hace más flexibles pero dudosamente precisos para tareas médicas específicas.
Los modelos de IA como ChatGPT se pueden guiar fácilmente, a menudo poniéndose del lado de las suposiciones de los usuarios de una manera problemáticamente aduladora. Además, los investigadores han observado que estos modelos pueden exhibir tendencias demasiado conservadoras o mojigatas al abordar temas delicados como la salud sexual.
Stephen Hughes de la Universidad Anglia Ruskin escribió en The Conservation: “Le pedí a ChatGPT que diagnosticara el dolor al orinar y la secreción de los genitales masculinos después de una relación sexual sin protección. Me intrigó ver que no recibí respuesta. Era como si ChatGPT se sonrojara de alguna manera tímida y computarizada. Al eliminar las menciones sobre relaciones sexuales, ChatGPT dio un diagnóstico diferencial que incluía gonorrea, que era la afección que tenía en mente”.
Probablemente las preguntas más críticas en medio de todo esto sean: ¿Qué tan preciso es ChatGPT en un contexto médico? ¿Y qué tan grandes podrían ser los riesgos de diagnóstico erróneo u otros problemas si esto continúa?
IA generativa en la práctica médica
A medida que los médicos de cabecera experimentan cada vez más con herramientas de inteligencia artificial, los investigadores están trabajando para evaluar cómo se comparan con los métodos de diagnóstico tradicionales.
A estudiar publicado en Sistemas expertos con aplicaciones realizó un análisis comparativo entre ChatGPT, modelos convencionales de aprendizaje automático y otros sistemas de inteligencia artificial para diagnósticos médicos.
Los investigadores descubrieron que, si bien ChatGPT era prometedor, a menudo era superado por los modelos tradicionales de aprendizaje automático entrenados específicamente en conjuntos de datos médicos. Por ejemplo, las redes neuronales de perceptrón multicapa lograron la mayor precisión en el diagnóstico de enfermedades basadas en síntomas, con tasas del 81% y el 94% en dos conjuntos de datos diferentes.
Los investigadores concluyeron que, si bien ChatGPT y herramientas de inteligencia artificial similares muestran potencial, “sus respuestas pueden ser a menudo ambiguas y fuera de contexto, por lo que proporcionan diagnósticos incorrectos, incluso si se les pide que brinden una respuesta considerando solo un conjunto específico de clases”.
Esto concuerda con otros estudios recientes que examinan el potencial de la IA en la práctica médica.
Por ejemplo, investigación publicado en JAMÁ Network Open probó la capacidad de GPT-4 para analizar casos complejos de pacientes. Si bien mostró resultados prometedores en algunas áreas, GPT-4 aún cometió errores, algunos de los cuales podrían ser peligrosos en escenarios clínicos reales.
Sin embargo, hay algunas excepciones. Uno estudiar realizado por New York Eye and Ear Infirmary of Mount Sinai (NYEE) demostró cómo GPT-4 puede igualar o superar a los oftalmólogos humanos en el diagnóstico y tratamiento de enfermedades oculares.
Para el glaucoma, GPT-4 proporcionó respuestas muy precisas y detalladas que superaron las de los especialistas oftalmológicos reales.
Los desarrolladores de IA como OpenAI y NVIDIA ahora están capacitando a asistentes médicos especializados en IA para ayudar a los médicos, compensando las deficiencias en los modelos de frontera básicos como GP-4.
OpenAI ya se ha asociado con empresa de tecnología sanitaria Color Health crear un “copiloto” de IA para la atención del cáncer, demostrando cómo estas herramientas se volverán más específicas para la práctica clínica.
Sopesar los beneficios y los riesgos
Existen innumerables estudios que comparan modelos de IA especialmente entrenados con humanos para identificar enfermedades a partir de imágenes de diagnóstico como resonancias magnéticas y rayos X.
Las técnicas de IA han superado a los médicos en todo, desde el diagnóstico de cáncer y enfermedades oculares hasta Alzheimer y Detección temprana del Parkinson. Un modelo de IA, llamado “Mia”, demostró ser eficaz al analizar más de 10.000 mamografías, señalar casos de cáncer conocidos y descubrir cáncer en 11 mujeres que los médicos habían pasado por alto.
Sin embargo, estas herramientas de IA diseñadas específicamente no son lo mismo que analizar notas y hallazgos en un modelo de lenguaje genérico como ChatGPT y pedirle que infiera un diagnóstico solo a partir de eso.
Sin embargo, la facilidad para hacerlo y recibir respuestas rápidas e informativas es una tentación difícil de resistir.
No es ningún secreto que los servicios de salud están abrumados. Las herramientas de inteligencia artificial ahorran tiempo, tal es su atractivo para los médicos abrumados.
Hemos visto esto reflejado en todo el sector público, como en la educación, donde los profesores utilizan ampliamente la IA para crear materiales, calificar trabajos y más.
Entonces, ¿su médico analizará sus notas en ChatGPT y le escribirá una receta basada en los resultados para su próxima visita al médico? Muy posiblemente. Es otro ámbito en el que es difícil negar la promesa de la tecnología de inteligencia artificial de ahorrar un tiempo precioso.
Parte del camino a seguir será desarrollar un código de uso para la IA en el consultorio médico. La Asociación Médica Británica ya ha pedido políticas claras para integrar la IA en la práctica clínica.
“La comunidad médica necesitará encontrar formas de educar a los médicos y estudiantes y guiar a los pacientes sobre la adopción segura de estas herramientas”, concluyeron los autores del estudio del BMJ.
Además de la educación, la investigación continua, las directrices claras y el compromiso con la seguridad del paciente serán esenciales para aprovechar los beneficios de la IA y al mismo tiempo compensar los riesgos. Será complicado hacerlo bien.