Doctor, ¿y si le pedimos una segunda opinión a la máquina?

0 17

Recibe actualizaciones en tiempo real directamente en tu dispositivo, suscríbete ahora.

La IA multiplica sus promesas. Empieza a introducirse en los hospitales, con posibles usos en la interpretación de biopsias o lesiones en la piel, diseño de nuevos medicamentos y selección de tratamientos, en detectar problemas de salud mental, ayudar a los radiólogos y hasta hacer diagnósticos mediante ChatGPT, o similares, que dialogan con los pacientes.

Para Josep Munuera, jefe de Diagnóstico por la Imagen del Hospital Sant Pau de Barcelona y experto en tecnologías digitales aplicadas a la salud, “estamos en el momento de empezar a conocer su verdadero valor”, de ver qué promesas se hacen realidad y de qué manera. “Su revolución es irreversible”, apunta Víctor Maojo, catedrático de Inteligencia Artificial y director del Grupo de Informática Biomédica de la Universidad Politécnica de Madrid, pero “debe hacerse de forma seria y donde pueda haber un beneficio claro”, porque existen “intereses en ganar dinero de forma rápida y eso genera riesgos”. Como decía la periodista científica Christie Aschwanden, “moverse rápido y romper cosas puede ser bueno para Facebook, pero no lo es demasiado en medicina”.

Estos son, agrupados, algunos de los principales campos en los que gana protagonismo, sus pros y sus contras, la realidad actual… Y las dudas éticas de viejo y nuevo cuño.

El ojo clínico que le quita la máscara a las enfermedades

Si en un área lleva ventaja, parece ser la interpretación de imágenes gracias a su capacidad para detectar patrones, el entrenamiento de los modelos en los últimos años y el hecho de que la radiología se digitalizara ya a principios sel siglo XXI. No se trata de algoritmos universales que puedan diagnosticar cualquier anomalía a partir de una imagen, porque suelen “estar entrenados para un solo tipo de lesión, por ejemplo fracturas o nódulos tumorales”, precisa Munuera, para quien “el objetivo es que lo hagan mejor que un humano, pero no se trata solo de la precisión, sino de que aporte un beneficio real”. Se puede dar la paradoja de que un diagnóstico más preciso no suponga una ventaja. ¿Un ejemplo? Los cribados de cáncer de pulmón: las nuevas técnicas de imagen son capaces de detectarlo antes que las radiografías, pero con ambas herramientas se pueden cometer equivocaciones e interpretar como tumorales nódulos que no lo son. Destinados a aplicarse a un gran número de personas, podrían llegar a producir más daño que beneficio, de ahí las dudas acerca de implantarlo.

No es la única promesa que despierta reservas. Muchos de los proyectos publicados muestran que funcionan bien en los lugares donde se realizan las pruebas, pero no fuera de allí. Algunas herramientas parecen trabajar con alta precisión, pero no se prueban en condiciones reales, no se comparan con el acierto humano o funcionan en el hospital que las desarrolla, no en otros, simplemente porque usan máquinas distintas o atienden a otro tipo de pacientes. Munuera compara este momento con los primeros pasos de los asistentes de conducción: “Al principio, si los seguías a ciegas, podían llevarte a un lago. De lo que se trata ahora es conseguir que la navegación sea fiable”.

Ciertos algoritmos ya identifican alteraciones en una radiología de tórax, por ejemplo, y ayudarán a interpretar biopsias, fondos de ojo o lesiones de piel. Los profesionales expertos en IA seguramente desplazarán a los que no se reciclen a tiempo

Sin embargo, está convencido de sus ventajas. Los hospitales empiezan a integrar algunas herramientas, “aunque todavía de forma puntual”. Sin ir más lejos, el propio centro de Munuera está probando algunos recursos. “Trabajamos de forma que un asistente basado en IA analiza imágenes y le ofrece ayuda al especialista, en caso de que este la solicite, o bien le indica previamente dónde debe fijarse. También puede preparar informes de tipo descriptivo, como en el seguimiento y evolución de un tratamiento contra el cáncer”. Otra opción es que en el futuro facilite la priorización de los análisis. “Aunque los algoritmos sirven generalmente para cosas concretas, algunos identifican con mayor o menor precisión hasta 20 alteraciones diferentes en una radiografía de tórax. Eso puede servir para seleccionar, a primera hora, las más graves o urgentes, esas que el especialista antes debería revisar”.

Ante toda tecnología, surge siempre la pregunta de los recursos humanos. ¿Destruirá puestos de trabajo? ¿O permitirá que las personas se dediquen a aquello en que sean más útiles? En 2016, Geoffrey Hinton, conocido como “el padrino de la IA”, dijo que nadie debería preparase para ser radiólogo, porque la nueva tecnología los sustituiría en poco tiempo. “Es muy difícil predecir el futuro, y nos solemos equivocar”, opina, sin embargo, Maojo, y prefiere esta otra frase frecuente en el entorno: “No sustituirá a los radiólogos, pero los radiólogos que usen IA sustituirán a los que no lo hagan”.

Munuera se declara optimista. “Radiólogos faltan, y harán falta más. No solo interpretan las imágenes, sino que deciden la mejor prueba, realizan intervenciones, hacemos muchas más cosas. La IA nos va a permitir que lleguemos a más y mejor”.

Si hablamos de su aplicación a la imagen, los estudios van mucho más allá de la radiología, como en interpretación de biopsias para discernir posibles tumores, análisis del fondo de ojo, lesiones de la piel, lecturas de electrocardiogramas… Pero Munuera advierte: “Debemos asegurarnos de que mejora nuestra práctica médica en el lugar en el que la realizamos. Eso es lo realmente importante”.

Un laboratorio que radiografía proteínas y crea medicinas de precisión

Uno de los problemas más difíciles de resolver en biología es cómo predecir la forma de las proteínas, cómo sus ladrillos (los aminoácidos) van plegándose sobre sí mismos hasta adoptar una estructura en el espacio. No es algo trivial, ni un mero juego de ingenio estilo Tetris. La estructura implica también su función, y conocerla puede servir para entender el mecanismo de las enfermedades, encontrar o fabricar nuevos fármacos, sintetizar incluso proteínas de funciones desconocidas.

Resolver la forma de una proteína podía llevar años a los científicos. Ahora la IA acelera el proceso de forma radical, lo reduce a minutos. El programa AlphaFold, de Google DeepMind, ha descrito ya la estructura de más de 200 millones de proteínas, incluidas la práctica totalidad de las humanas. Sus inventores han recibido el premio Lasker, “considerado un anticipo del Nobel en Medicina”, asegura Maojo. Con el mismo objetivo, Meta ha desarrollado la herramienta ESMFold, que usa modelos de lenguaje similares a los de ChatGPT. Aunque algo menos precisa, es aún más rápida que AlphaFold y ya ha descrito cerca de 700 millones de proteínas, incluidas mutaciones.

También contribuye a encontrar o desarrollar nuevos fármacos. Por ejemplo, en el campo de los antibióticos, donde ya está ayudando a descubrir nuevos tipos, a sintetizar nuevas moléculas o a buscar entre medicamentos aprobados para otras enfermedades aquellos que por su estructura podrían servir también como bactericidas. A esto último se le llama reposicionamiento de fármacos y, al estar aprobados previamente, podría acortar los plazos de evaluación. “La IA puede ser beneficiosa en la lucha contra las resistencias a los antibióticos, un campo donde no hay grandes inversiones de los laboratorios por no ser muy rentable y en el que no ha habido muchas novedades”, explica Mar Gomis-Pastor, farmacéutica clínica y directora del Centro de Validación Clínica de Soluciones Digitales, en el Sant Pau-Campus Salut Barcelona.

Otra área importante: la predicción de enfermedades y tratamientos, dentro de la medicina de precisión. Herramientas IA ayudan a calcular de forma personalizada el riesgo de desarrollar una determinada enfermedad, o pueden combinar datos de la historia clínica con, por ejemplo, datos genéticos para escoger el tratamiento más eficaz. Ahora bien, “la inmensa mayoría de estos proyectos aún están en fase de investigación”, reconoce Maojo. Los riesgos quedaron patentes cuando en 2018 la herramienta Watson, desarrollada por IBM, cometió graves errores en sus recomendaciones, con contraindicaciones evidentes. Siguiendo la metáfora del navegador, es preciso asegurarse de que no nos conduzca hasta un lago.

Casi cada propuesta lleva en algún lugar escritas esas dos iniciales. Y si no lo hace, es posible que la IA haya ayudado a redactar el proyecto o a comunicar los resultados.

Los ‘chatbots’ podrían superar y sustituir al doctor Google

A principios de 2023, un estudio comprobó que la versión ChatGPT de aquel entonces podría aprobar los exámenes para obtener la licencia de médico en EEUU, o al menos estaba a punto de alcanzar la habilidad necesaria para lograrlo. Apenas unos meses después, otro trabajo lo puso a prueba con preguntas médicas de un foro público en Internet. Cuando se compararon sus respuestas con las de los médicos, las de ChatGPT tendían a recibir mejores valoraciones tanto en fondo como en forma.

Uno de los últimos casos que ha copado titulares empleó una herramienta parecida, desarrollada por Google. En cerca de 150 consultas médicas simuladas online, los participantes en el estudio ignoraban si estaban hablando con el chatbot o un médico. Resultado: la precisión de los diagnósticos fue muy similar, y en algunas especialidades la máquina superaba al humano. Además, y esta fue la mayor sorpresa, los participantes tendían a considerar sus respuestas más educadas, explicativas y empáticas. Como reconocen sus autores, la herramienta está diseñada para “componer rápidamente respuestas largas y bellamente estructuradas, puede responder de forma considerada y sin cansarse”.

“Que genere un texto empático es bueno”, puntualiza Munuera, “pero no es más que eso, un texto. La experiencia de la empatía humana completa va mucho más allá y tiene una gran parte no verbal. La herramienta no puede mirar a los ojos, ni tocar un hombro”. “Además, la precisión del diagnóstico en estos estudios se evalúa en unas pruebas cerradas y limitadas que no son la realidad. Un paciente no es una pregunta MIR [el examen para acceder a una especialidad en España]”.

El papel de estas tecnologías “no tiene que ser el de hacer diagnósticos. Deben usarse para lo que son mejores, es decir, hacer textos, mejorar la comunicación entre el médico y el paciente”, y sus aplicaciones han de estudiarse caso por caso, completa Munuera. Por ejemplo, “son muy buenas traduciendo conversaciones reales, pueden servir para ayudarnos en la historia clínica o en los informes de alta. Si nos hacen ganar ese tiempo, los médicos podremos hacer más cosas, hablar más tiempo con el paciente, mirarle más a los ojos”.

Coincide Gomis-Pastor, para quien la IA será útil especialmente “en tareas automatizables y burocráticas, más que en la práctica clínica, al menos en un principio”.

Su mayor peligro, que los humanos le tengan fe ciega

La tecnología rara vez es neutral, puede arrastrar dudas éticas ya presentes e inaugurar otras. La de la caja negra es una de las asociadas a la IA, que parte de sus algoritmos puedan resultar opacos para quienes los usan, o que en su maraña de procesos no puedan conocerse todas las reglas usadas, en qué se fija y cómo llega a su conclusión. En un campo como la medicina, pueden introducir sesgos y llevar a errores difíciles de identificar y cuya causa no es posible establecer. Esto se une a un debate sobre la responsabilidad: si confiamos en la máquina, ¿su error es achacable al médico o a sus programadores?

Según Munuera, se trabaja duro para que los algoritmos sean transparentes. “Debemos conocer cómo funcionan, cómo están construidos y qué datos han utilizado, y eso se puede hacer incluso respetando patentes”. Maojo comparte que “los algoritmos deben ser todo lo explicables que sea posible, pero probablemente no siempre lo serán de forma completa, además se da una paradoja, que los más precisos suelen ser más opacos”. El cardiólogo y genetista estadounidense Eric Topol escribía en un artículo que “el debate sobre si es aceptable o no usar algoritmos opacos sigue abierto, pero también es cierto que muchos aspectos en la práctica médica siguen sin explicación, como cuando se receta un medicamento sin que se conozca su mecanismo de acción”.

La opacidad de los datos y de los algoritmos aumenta el riesgo de sesgos. Se debe conocer cómo funcionan, cómo están construidos y qué datos han utilizado, y eso se puede hacer incluso respetando las patentes

La transparencia, en cualquier caso, resulta preferible, porque la opacidad de los algoritmos y los datos es una fuente posible de sesgos. Por ejemplo, la mayor parte de la investigación biomédica se ha hecho con pacientes hombres blancos. Como las nuevas tecnologías no son ajenas a ello, ya existen riesgos fruto de esa distorsión: una aplicación de IA para detectar lesiones de melanoma en la piel lo hacía mucho mejor con población blanca que negra, y herramientas para estimar el riesgo cardiovascular pueden funcionar mejor en hombres que en mujeres. Además, como explica Munuera, “la mayoría de los datos que usan proceden de EEUU y China, dos países donde el acceso a la sanidad no es universal”. Por eso se han dado casos de sesgos socioeconómicos.

De fondo, el problema añadido de la privacidad de los datos, como cuando se transfirieron sin consentimiento los historiales de más de 1,5 millones de personas desde el Servicio Nacional de Salud del Reino Unido a la empresa DeepMind, un caso juzgado y condenado. “Debemos asegurarnos de que las grandes compañías no los usen en su único beneficio sin consentimiento”, reclama Gomis-Pastor. Munuera pide calma: “Los algoritmos deben seguir la ley de protección de datos y pasan por un proceso para asegurar que no trascienden y se usan únicamente con su propósito original. Los hospitales dedicamos mucho esfuerzo a velar por su privacidad, las personas no deberían preocuparse”. Señala que a menudo entregamos datos, incluso sobre salud, al aceptar “condiciones y formularios en aplicaciones digitales de empresas privadas”.

¿Es posible una revolución sin prisa?

Si el nombre hace la cosa, fue el matemático e ingeniero John McCarthy quien creó la IA en 1955. Sin embargo, cuando a principios de los noventa le preguntaron por sus aplicaciones en medicina, su respuesta, cuenta Maojo, fue: “No me interesa”.

Este artículo cita ejemplos que quizá le hubieran interesado, y sin embargo son solo unos pocos en un paisaje cada vez más amplio. Prácticamente cualquier disciplina médica o área de investigación juega con la IA: en gestión de hospitales, en prevención de demencias o problemas de salud mental, en ensayos clínicos, en interpretación de datos que envían relojes inteligentes, en proyectos de salud pública o de respuesta a posibles pandemias…

“La revolución es segura, pero las prisas pueden dar lugar a problemas serios. Creo que con este tipo de tecnologías estamos pasando de tener bastante desconfianza a una confianza excesiva”, alerta Maojo. Topol decía: “El riesgo que suponen unos algoritmos defectuosos es exponencialmente mayor que el que implica una sola interacción médico-paciente (…) La IA no puede ser una excepción, necesita estudios rigurosos”. En medicina, los humanos seguirán siendo necesarios porque “la salud es demasiado valiosa como para relegarla a las máquinas”.

Es decir, habrá que diseñar los navegadores para que nos ayuden, no para que nos hundan, y seguir vigilantes por si alguna vez nos llevan al lago. “Es un momento excepcional, estamos viendo cómo irrumpe una evolución de tecnologías que van a mejorar la velocidad, la precisión y nos van a permitir a los sanitarios ser mucho más humanos”, augura Munuera. “Porque la tecnología no es un fin, es un vehículo”.

(Visited 17 times, 1 visits today)

Recibe actualizaciones en tiempo real directamente en tu dispositivo, suscríbete ahora.

Deja una respuesta

Su dirección de correo electrónico no será publicada.