Skip to main content

Lola Camús

Santander (EFE).- La científica Lara Lloret ha cambiado la física de partículas y la búsqueda del bosón de Higgs por la inteligencia artificial aplicada a la medicina, que ha vivido una explosión en los últimos diez años y ya es una herramienta para avanzar en los tratamientos a medida, a la que hay que perder el miedo.

El temor a la IA que ha visto aumentar de un tiempo a esta parte cada vez que da una charla divulgativa, como si fuera un “ente con tentáculos” capaz de hacerlo todo, fue una de las razones que llevó a Lloret a escribir un libro a cuatro manos junto a la investigadora Miriam Cobo, compañera en el Instituto de Física de Cantabria (IFCA), en el que abordan los desafíos de la inteligencia artificial en el campo de la salud y cuentan como funciona (‘Inteligencia artificial y medicina’ CSIc/Catarata).

De esos retos han hablado en una entrevista con EFE en la que recuerdan que la IA “es algo que lleva ahí desde los años 50”. La primera en medicina se llamaba Elisa, una IA conversacional que se usaba en el tratamiento de personas con problemas psiquiátricos.

Pero el boom llegó con el llamado aprendizaje profundo y los nuevos recursos computacionales. “Antes necesitabas una habitación llena de ordenadores como la que tenemos en el Instituto de Física para entrenar una de estas aplicaciones y ahora con una tarjeta gráfica que tienes en el portátil ya eres capaz de entrenar un sistema que te va a servir, por ejemplo, para hacer el diagnóstico de una neumonía”, señala Lloret.

Como una escopeta de feria

¿Y cómo se entrena un algoritmo? ¿Cómo aprende una máquina? La científica pone el ejemplo de una escopeta de feria en una caseta de tiro. La primera vez disparas a la lata, la segunda ves si te has equivocado hacia la derecha o hacia la izquierda y la tercera se recalibra el cerebro, la mano y la visión para hacerlo mejor. Y así sucesivamente.

Lo mismo hace la IA. Se le van dando datos con etiquetas y la primera vez predice al azar por ejemplo si un paciente tiene o no una enfermedad. Pero aprende de lo que ha hecho mal y cada vez lo hará un poco mejor, modificando sus pesos internos hasta que termina aprendiendo.

Y como apunta Lloret, un sistema entrenado para diagnosticar una retinopatía diabética solo sabe hacer eso, no sabe hablar como ChatGPT ni diagnosticar otra enfermedad. “Hablamos de la inteligencia artificial como si fuera algo global pero son herramientas puntuales, para una tarea concreta”, precisa.

De dos días a cinco minutos para planificar un tratamiento

En el hospital Valdecilla, con el que colabora estrechamente el IFCA, saben ya lo útil que puede ser: una herramienta de IA ha conseguido reducir de dos días a cinco minutos la planificación terapéutica para aplicar un tratamiento con protones contra el cáncer, determinando la radiación que hay que dar y delimitando los órganos sensibles, explica.

Su compañera, Miriam Cobo, está investigando para perfeccionar el cribado del cáncer de pulmón, utilizando datos de proteínas y de imágenes para encontrar nuevos biomarcadores que sirvan para guiar a los médicos y quizá descubrir, dice, otros grupos de pacientes a los que también se les tendrían que hacer estas pruebas pero no se les están haciendo.

La IA está ayudando a avanzar hacia una medicina personalizada que ofrezca al paciente el tratamiento más adecuado para su patología según sus propias características y partiendo de un diagnóstico que tenga en cuenta, además de su historial médico, su genoma y sus proteínas. “Al final en los hospitales se recaba muchísima información de los pacientes, también cuando les haces una biopsia o una analítica”, recuerda Cobo.

EFE/ Archivo

Según Lloret, el desarrollo de la IA aplicada a la salud en España es similar al de los países de su entorno. Pero Europa va por detrás de Estados Unidos, porque este país es más permisivo a la hora de aprobar estos sistemas.

“A nivel académico hay muchísimas aplicaciones, pero en el día a día de los hospitales no hay tantas aprobadas para su utilización”, destaca.

Sobre esa brecha, Cobo apunta que se está investigando mucho para asegurar que los algoritmos sean “robustos y realmente se pueden desplegar en un entorno clínico”.

Los sesgos son humanos

A Lara Lloret le resulta gracioso que muchas veces se hable de los sesgos de la IA y recuerda que son humanos: “Los datos son nuestros, los que nosotros generamos”, argumenta.

“Si entrenas una IA conversacional en Twitter (ahora X) va a acabar siendo racista, machista y todos los istas”. Y eso querrá decir que funciona muy bien porque es capaz de leer los patrones que está viendo. Aunque en medicina, añade, no quieres que simule como es la sociedad, sino que tenga la misma eficiencia en el diagnóstico para todos los pacientes, independientemente de su sexo o su color de piel.

A su juicio, la IA ha llegado “un poco de golpe” y hay por delante “todo un camino de asimilación”, pero no es más peligrosa que las redes sociales e internet.

Recuerda que hace cinco años “nadie te hablaba de escenarios apocalípticos” y ahora hay “la sensación de que la Inteligencia Artificial es capaz de hacerlo todo porque todos los días ha resuelto un problema nuevo”. Y no es un ente capaz de hacerlo todo. Por ejemplo, añade, ChatGPT es “como un cuñado digital que siempre responde, sepa o no sepa” porque para eso está programado.

“Lejos de tener miedo deberíamos aprovecharnos de todo lo que nos puede dar, con cabeza, de las herramientas útiles que pueden hacer mejorar nuestra vida. En el campo de la medicina y en muchos otros campos”, aconseja.


Source link

Leave a Reply