Menú
Inteligencia Artificial, ¿el doctor que no se equivoca?
  1. Bienestar
'Ciencia con conciencia'

Inteligencia Artificial, ¿el doctor que no se equivoca?

Pretender imitar la capacidad humana de analizar datos procedentes de lenguajes diferentes (escritos, orales, matemáticos, simbólicos) y de extraer una conclusión

Foto: (istock)
(istock)

La inteligencia artificial (IA) pretende imitar las funciones cognitivas humanas más avanzadas, como la capacidad de predecir sucesos y de tomar decisiones complejas, incorporando datos procedentes de diferentes lenguajes. La inteligencia no es algo específicamente humano. De hecho, hay muchos animales inteligentes. Por eso usamos perros para localizar a víctimas de catástrofes, o palomas mensajeras para enviar recados. Pero ningún perro, chimpancé o delfín, por mucha capacidad cognitiva que tengan, posee una inteligencia tan sofisticada como la humana. No eligen libremente qué hacer con sus vidas tras valorar los datos y basándonos en su experiencia. No procesan sus ideas en un lenguaje articulado o simbólico.

La IA pretende imitar una parte de esa inteligencia que es específicamente humana. En concreto, la capacidad de analizar datos procedentes de lenguajes diferentes (escritos, orales, matemáticos, simbólicos) y de extraer una conclusión. Como los humanos, la IA expresa sus conclusiones (decisiones) en un lenguaje comprensible. Esto en medicina se traduce en una decisión. Aplicada a la medicina, la IA ofrece ventajas enormes, porque realiza un análisis rápido de multitud de datos y ofrece decisiones basadas en algoritmos que pueden optimizar la práctica clínica. Estas ventajas se están empleando en el diagnóstico por imagen, en investigación biomédica, en planificación y políticas sanitarias y en la toma de decisiones complejas, por ejemplo, para personalizar las decisiones en oncología.

Una ventaja más de la IA es que no comente algunos de los errores y sesgos típicos de la inteligencia humana. Se han descrito multitud de fallos en los procesos mentales requeridos para hacer un diagnóstico y tomar decisiones, fallos que causan errores médicos. Han sido han identificado más de 30 tipos de sesgos cognitivos e influencias afectivas que condicionan las decisiones clínicas. Por ejemplo, cuando se ha diagnosticado un caso difícil se subestima que este vuelva a aparecer (falacia del jugador), el cierre prematuro de un caso por los primeros datos, la sobre-influencia de la última información recogida, el condicionamiento por las opiniones de otras personas, la sobreestimación de la propia pericia o la influencia de los estados afectivos transitorios, como la irritación ambiental, la privación de sueño, el estrés o la fatiga. La IA no se fatiga, ni condiciona sus decisiones a los sesgos y factores emocionales descritos.

Que las máquinas creadas por los seres humanos sean inteligentes puede parecer una panacea, del griego “pan” y “akos”: el remedio para todo. Pero, como todo remedio, la IA tiene sus efectos secundarios. Dos de ellos son la atribución de responsabilidades en la toma de decisiones y el riesgo de deshumanizar la medicina. En España, el uso de la IA en medicina precisa de una continua supervisión humana y de transparencia. Tiene que estar claro quién y cómo se toma cada decisión. Porque si hay un error, el responsable, tanto moral como jurídico, será el médico del paciente, no la IA ni el desarrollador software. Los programas de IA para el autodiagnóstico y la toma de decisiones sin supervisión médica no están permitidos en nuestro país. Los profesionales tienen que asegurar que se han hecho bien las cosas y no sólo por una cuestión jurídica, sino porque la IA también se equivoca y tiene sus propios sesgos. Hay que ver de dónde extrae los datos, si hay algún interés en el programador respecto al análisis y la toma de decisiones y, por supuesto, si ha tenido en cuenta factores tan difíciles de procesar como son las emociones y los valores.

Foto: IA en medicina. (iStock)

Otro posible efecto secundario es practicar una medicina deshumanizada, desplazando al ser humano enfermo del acto médico. Una queja habitual de la medicina actual es que los ordenadores y la tecnología han sustituido a la palabra, que han desplazado el contacto humano. Sin embargo, hay quien postula que la IA puede ayudar a humanizar la medicina. Porque si determinados procesos que consumen mucho tiempo al médico, como escribir historias clínicas, realizar informes o determinadas tareas administrativas, son realizados por un programa informático, es posible que el cuidador se dedique más al enfermo. Como ha señalado Richard Benjamins, responsable de IA en Telefónica, “el profesional seguirá al mando, pero tendrá un potente copiloto para ayudarle con las tareas que normalmente requieren mucho esfuerzo manual y/o mental”.

En los últimos 100 años, tanto las máquinas como los robots “inteligentes” han ido apareciendo una y otra vez en la literatura y en la gran pantalla. La primera vez que se mencionó el término robot fue en 1921. Karel Capek estrenó en el Teatro Nacional de Praga la obra Rossumovi univerzální roboti, donde se relata la historia de una fábrica que crea unos robots humanoides con el objetivo de reducir la carga de trabajo de los humanos. Isaac Asimov divulgó el término robot en Círculo vicioso (1942), describiendo sus tres leyes de la robótica: ningún robot debe hacer daño a un ser humano, tienen que obedecer las directrices de los humanos y sus acciones no deben implicar daños a otras personas. Nos encontramos ante varios caminos y es imposible prever qué sucederá. Si la IA continuará siendo un aliado para el médico (y, por tanto, para el paciente), si vamos hacia una relación clínica más deshumanizada y mediada por las máquinas, o, quien sabe, si se harán realidad las distopías de la ciencia ficción y acabemos siendo sustituidos por otra especie: las máquinas inteligentes.

La inteligencia artificial (IA) pretende imitar las funciones cognitivas humanas más avanzadas, como la capacidad de predecir sucesos y de tomar decisiones complejas, incorporando datos procedentes de diferentes lenguajes. La inteligencia no es algo específicamente humano. De hecho, hay muchos animales inteligentes. Por eso usamos perros para localizar a víctimas de catástrofes, o palomas mensajeras para enviar recados. Pero ningún perro, chimpancé o delfín, por mucha capacidad cognitiva que tengan, posee una inteligencia tan sofisticada como la humana. No eligen libremente qué hacer con sus vidas tras valorar los datos y basándonos en su experiencia. No procesan sus ideas en un lenguaje articulado o simbólico.

Consultas Externas
El redactor recomienda