Menú
Cuando ChatGPT falla y puede poner en riesgo la vida de los pacientes
  1. Bienestar
En abscesos cerebrales

Cuando ChatGPT falla y puede poner en riesgo la vida de los pacientes

La inteligencia artificial lleva meses acaparando titulares por su potencial en investigación y toma de decisiones. Pero también cuenta con limitaciones en el diagnóstico y tratamientos

Foto: (EFE / Rayner Peña R)
(EFE / Rayner Peña R)

La inteligencia artificial lleva meses acaparando titulares por su potencial en la investigación y en la toma de decisiones en Medicina. Pero, pese a su enorme potencial, también cuenta con limitaciones, especialmente en el diagnóstico y en los tratamientos.

Un ejemplo es un estudio reciente, que acaba de presentarse en el congreso de la Sociedad Europea de Microbiología Clínica y Enfermedades Infecciosas (ESCMID en sus siglas en inglés), que se ha celebrado en Barcelona. Los autores del trabajo compararon los resultados de ChatGPT frente a las recomendaciones de la sociedad científica para el tratamiento de los abscesos cerebrales.

Los resultados, publicados en la revista científica The Journal of Neurology, han demostrado que esta conocida aplicación de inteligencia artificial parece dar respuestas adecuadas en aspectos clave de diagnóstico y tratamiento en muchos de los casos. Pero algunas de sus respuestas podrían poner en riesgo a algunos de los pacientes.

La doctora Susanne Dyckhoff-Shen, del Hospital Universitario LMU de Munich (Alemania) es una de las autoras del estudio. Y, como recalca, “cuando se habla de seguridad de los pacientes, cualquier porcentaje inferior al 100% es un fracaso: estamos fascinados con el conocimiento de ChatGPT sobre el manejo de los abscesos cerebrales, pero tiene algunas limitaciones clave cuando se usa este modelo de inteligencia artificial como dispositivo médico, como un potencial daño a los pacientes y una falta de transparencia sobre qué datos se usan para proporcionar las respuestas”.

20 preguntas para detectar un absceso cerebral

Los abscesos cerebrales son infecciones del sistema nervioso central que ponen en riesgo la vida de los pacientes. Por eso, es preciso identificarlos y tratarlos de manera inmediata para prevenir complicaciones neurológicas graves e, incluso, la muerte. Su manejo se ha basado, de manera tradicional, en la experiencia clínica de los médicos, con pocos estudios en la literatura científica. El año pasado, los responsables de ESCMID se propusieron el desarrollo de guías de práctica clínica para garantizar que estos abscesos se traten de una manera estandarizada.

Y, para comprobar si la inteligencia artificial podía ser una herramienta útil para el desarrollo de las guías, los investigadores formularon 10 preguntas clave a la versión 4 de ChatGPT y compararon las respuestas que las que habían redactado ellos. Además, posteriormente se proporcionó a la inteligencia artificial los mismos artículos que se habían utilizado para elaborar las guías, para ver si proporcionaba respuestas más precisas a otras 10 preguntas.

placeholder (REUTERS / Dado Ruvic)
(REUTERS / Dado Ruvic)

Del total de 20 preguntas, 17 fueron respondidas con una precisión que ronda el 80-90%. Sin embargo, las respuestas no fueron claras en cuestiones acerca de cómo detener la actividad microbiana antes de la cirugía o qué tratamiento antiepiléptico debía usarse.

Pero quizá lo más llamativo es que, pese a disponer de los artículos científicos, la inteligencia artificial proporcionó dos respuestas que contradecían directamente a la guía de práctica clínica. Y, lo que es más grave: podían haber puesto a los pacientes en riesgo.

Foto: Una enfermera realizando labores sanitarias. (EFE/Daniel González)

Para los autores de la investigación, una de las claves es que ChatGPT usa como datos más recientes los de enero de 2022, “por lo que no tiene acceso ni a datos en tiempo real y a los conocimientos generados tras esa fecha”, alerta la doctora Dyckhoff-Shen.

Para el profesor Mattias Klein, coautor del trabajo y que también trabaja en el Hospital Universitario LMU de Munich, el problema es que ChatGPT “carece de la capacidad de clasificar y sopesar correctamente los datos en función de su calidad científica”. Además, –lo que parece más preocupante– es que “no está claro” qué datos usan para proporcionar las respuestas, ya que los responsables de ChatGPT “no revelan las fuentes, por lo que se corre el riesgo de que se utilice literatura científica dudosa”. Por este motivo, el artículo concluye recalcando que, debido al peligro de dañar a los pacientes, "la experiencia de un comité de expertos continúa siendo ineludible"

La inteligencia artificial lleva meses acaparando titulares por su potencial en la investigación y en la toma de decisiones en Medicina. Pero, pese a su enorme potencial, también cuenta con limitaciones, especialmente en el diagnóstico y en los tratamientos.

Salud
El redactor recomienda