

Roberto García Figueiras (Santiago de Compostela, 1967) es jefe del Servicio de Radiodiagnóstico del Chus, una especialidad con un importante componente técnico que ha vivido una transformación sin precedentes desde la implantación de herramientas de inteligencia artificial que aceleran los diagnósticos, sirven de apoyo en la toma de decisiones y permiten a los profesionales centrarse en aquellos casos en los que su experiencia puede aportar un mayor valor. A lo largo de su trayectoria, el doctor García Figueiras también ha ejercido en los hospitales de Monforte de Lemos y de Ourense, y su pasión por la radiología y la oncología le llevó a completar la formación adquirida en la capital gallega con rotaciones en Bélgica, Países Bajos, Nueva York y Londres. El próximo 28 de octubre estará en el Colegio, junto al exfiscal superior de Galicia, Fernando Suanzes, para debatir sobre la responsabilidad ética y legal del uso de la IA en medicina en una jornada organizada por la Comisión de Ética y Deontología del Colegio.
El radiodiagnóstico es tremendamente dependiente de la tecnología. Nuestras imágenes requieren de un gran poder de computación y de innovación, por lo que el impacto de la inteligencia artificial (IA) es muy alto. Por ello, algunas personas, como Geoffrey Hinton —galardonado con el premio Nobel de física y el premio Turing de computación— pronosticaron el fin de la especialidad y que el aprendizaje profundo iba a terminar con nosotros. Yo soy crítico con esa visión pesimista. Creo que seguirá habiendo radiología, pero tendremos que adaptarnos. Habrá otra radiología. En esto tenemos experiencia, porque desde nuestros inicios hemos estado innovando y cambiando continuamente. Nuestro rol y la forma de trabajar cambiará, pero siempre hará falta contar con el factor humano.
La inteligencia artificial afecta a todos los ámbitos, pero en nuestro caso las imágenes contienen píxeles —o vóxeles, si hablamos de volumen— con relaciones y características que una inteligencia artificial es capaz de analizar más allá de lo que podría hacer el ojo humano. La IA no se cansa, tiene una velocidad de procesado enorme y puede integrar múltiples datos, pero siempre hay que tener en cuenta que se nutre de lo que nosotros le damos. Por lo tanto, si la base de información de las redes neuronales es inadecuada o está sesgada —por ejemplo, si solo se entrena con placas de varones—, vamos a distorsionar la respuesta.

En la actualidad, está presente casi desde la llegada del paciente al Servicio y a lo largo de toda su asistencia. Las máquinas con las que contamos permiten saber si ya se le ha hecho un estudio, cómo se le hizo e intentar reproducir la colocación. Podemos centrar al paciente y programar el protocolo automáticamente, y la inteligencia artificial nos permite, además, obtener las imágenes más rápido y con menos artefactos. También puede reconstruirlas y hacer que ganen calidad: la IA está educada para saber cómo debe ser una imagen óptima y, sus redes neuronales rellenan los detalles que faltan para alcanzar ese estándar. Por otro lado, la utilizamos en la ayuda a la toma de decisiones y en los informes. Tenemos inteligencias artificiales que nos filtran los estudios, que sirven para el triaje en un screening de cáncer de próstata. Incluso podría permitir la priorización de estudios durante las guardias indicando que una prueba debería valorarse antes dado que se ha encontrado un posible problema. Incluso podría ayudar en la estructuración del servicio al valorar la solicitud de un estudio que ha hecho un médico de atención primaria, de manera que se eviten pruebas innecesarias. Esto es algo que ahora hacemos los radiólogos y que, de implantarse, nos permitiría ahorrar tiempo. Otro uso que también resulta espectacular es el proyecto que hemos desarrollado con el Servicio de Urgencias.
La utilizamos en radiología simple, tanto para traumatismo musculoesquelético —buscando fracturas— como para radiología de tórax —detectando nódulos, consolidaciones o derrames pleurales—. Esto nos ayudó a salir de una situación complicada con respecto a las guardias, en las que dos personas tenían que informar más de 350 estudios. Era una locura y generaba un problema importante, porque teníamos que dedicar mucho tiempo a tareas con bajo valor añadido —por ejemplo, analizar imágenes con una baja probabilidad de encontrar fracturas—. Esto nos fatigaba y complicaba realizar exploraciones críticas, como politraumatismos o pacientes que llegaban con un código ictus. La IA nos permitió salir de ese embudo. Donde antes había que informar 250 estudios de radiología simple, ahora solo tenemos que revisar alrededor de 30.
La clave es que la herramienta ofrezca un valor predictivo negativo altísimo. La que usamos para la detección de fracturas tiene un 98 %. Esto nos permite filtrar los estudios con mucha seguridad: cuando la IA dice que no hay hallazgos, es muy probable que así sea. De esta manera podemos descartar muchísimos casos, siempre que al clínico le cuadre con su exploración. Esta es otra cuestión fundamental: la IA no debe sustituir a la valoración clínica. No es suficiente con fiarse solo de la máquina sin explorar al paciente, sino que se trata de una integración. Por otra parte, se nos siguen consultando los casos que la inteligencia artificial marca como positivos o dudosos, y también aquellos negativos que no cuadran con la clínica. De esta manera, podemos centrarnos en casos donde realmente aportamos valor, y no en los que la solución era obvia. Todo esto funciona gracias al alto valor predictivo negativo, pero también necesitamos que la tasa de falsos positivos no sea muy alta. Si la máquina detecta ocho lesiones en un posible cáncer de próstata, pero realmente solo hay una —o ninguna—, genera un problema al radiólogo, que tiene que comprobarlas todas.
Se han visto resultados muy curiosos en este sentido. Un estudio alemán desarrolló un algoritmo que funcionaba de forma fantástica con las imágenes de los propios centros de los autores, pero no con las de otros hospitales. Esto era debido a que se había formado con imágenes de unos aparatos determinados, pero máquinas diferentes generaban imágenes con características técnicas ligeramente distintas, por lo que el rendimiento baja. Esto nos lleva a la necesidad de testar y calibrar los algoritmos con nuestros propios datos. Se tiende a pensar que la IA es infalible, pero es un error. Estamos ante una herramienta en una etapa de desarrollo inicial. Cuando se integra un algoritmo hay que tener muy claro para lo que vale y definir muy bien el papel de cada herramienta, porque no se les puede pedir algo que no saben hacer.
Actualmente no hay inteligencias artificiales que trabajen y tomen decisiones solas. Lo que necesitamos es un marco de trabajo colaborativo entre el humano y la máquina. Además, es preferible contar con una IA explicativa, que indique por qué ha llegado a cierta conclusión. De esta manera, evitamos el efecto “caja negra”, en el que introducimos unos datos y obtenemos unas conclusiones, pero no sabemos qué ha llevado a la inteligencia artificial a ese resultado. Esto es muy importante, porque nos ayuda a entender su razonamiento y, a la vez, es una herramienta formativa fundamental para profesionales con menos experiencia. Con respecto a la relación entre humanos e IA también debemos estar alerta ante el sesgo de automatización, porque tendemos a creer que la inteligencia artificial es infalible y que, si hay una discrepancia, quien se equivoca es la persona.
Por un lado, les aporta una mayor fiabilidad en los diagnósticos. En ese sentido, vamos a ganar todos. Además, va a aumentar nuestra capacidad y homogeneidad diagnóstica. Por ejemplo, en cáncer de próstata, se ha visto que los radiólogos menos hábiles, cuando utilizan la IA, pasan a tener un rendimiento similar al de los expertos. Estos últimos no se benefician tanto, pero la herramienta eleva el nivel general, y eso es muy importante para los pacientes. Por otro lado, en el plano ético, los pacientes pueden estar seguros de que su privacidad se mantiene. Los datos siempre se suben a la nube de forma anonimizada. Sobre estos aspectos, entre otros, hablaremos en la jornada organizada del 28 de octubre.
Surge un debate complejo sobre la relación con el paciente. ¿Qué pasa si emito un informe negativo sobre una resonancia de próstata y la inteligencia artificial detecta una zona sospechosa? Si el paciente tiene acceso a ambos documentos, esa discrepancia puede generar una ansiedad enorme. Es un marco de relación que tenemos que aprender a gestionar. Además, desde mi punto de vista, existen dos riesgos fundamentales.
El primero es que el profesional se refugie en ese sesgo de automatización del que hablaba antes: creer que la IA sabe más que él y dejarse arrastrar por sus conclusiones. La hipertecnologización te puede llevar a perder tu propia capacidad de juicio. El segundo riesgo, derivado del anterior, es que la formación del médico se empobrezca. Puede llegar a pensar que, si la inteligencia artificial le ayuda a rendir a un nivel más alto, ¿para qué va a estudiar? Sin embargo, ser radiólogo va más allá de ver un estudio y detectar una patología. Hay que tener una visión global que, si perdemos, supondrá un grave peligro para los pacientes. Un profesional tiene que saber de muchas áreas y de múltiples patologías, mientras que la IA está formada en tareas específicas. Una inteligencia artificial centrada en cáncer de próstata no va a valorar una metástasis en el hueso o una lesión incidental en el recto. Se va a enfocar muy bien en la próstata, pero no va a analizar si el asa intestinal está engrosada. Como decía un maestro de la radiología, “uno solo busca aquello que conoce, y solo conoce aquello que estudia”. Tenemos que evitar fiarnos en exceso de lo que nos dice la máquina y que esa confianza nos lleve a abandonar otras cuestiones, como mantener una visión clínica global. La IA solo nos va a dar respuestas si las preguntas que hacemos son adecuadas.
A priori, la inteligencia artificial no está centrada en tener una relación empática con el paciente. Los profesionales tenemos que seguir ofertando empatía e implicación. Sería un error perder esa parte del vínculo. La relación no debería cambiar, aunque creo que, inevitablemente, lo hará. Ya vivimos en una distopía con internet, con pacientes que vienen a consulta con información que han encontrado y cuestionan los diagnósticos de los profesionales. Podría llegar a pasar que un paciente analice sus propias imágenes con una IA por su cuenta y venga a pedir explicaciones al médico por una discrepancia. Un marco de hiperinformación sin las herramientas para interpretarla es peligroso. Por otra parte, mi trabajo no tiene sentido si no lleva a tomar las mejores decisiones para los pacientes. Y eso solo se consigue si estoy integrado en equipos multidisciplinares, discutiendo con otros compañeros de distintas especialidades sobre cuál es la mejor opción para cada paciente de modo individual en base a analizar conjuntamente las imágenes y el resto de información sobre él. Si pretendes ser un radiólogo aislado de todo el mundo con una IA maravillosa, no serás verdaderamente eficiente.

Creo que se va a producir una revolución en base a la capacidad de la IA para analizar patrones en los píxeles que a nosotros se nos escapan y correlacionarlos con datos clínicos y genómicos para predecir el pronóstico de un paciente o su respuesta a un tratamiento: el mundo emergente de la radiómica y la radiogenómica. También se va a potenciar mucho la faceta más activa de la especialidad, el intervencionismo. No solo diagnosticamos, sino que también tratamos basándonos en la imagen con soluciones menos invasivas. En lugar de operar, drenamos una colección, y en lugar de abrir a causa de un sangrado, lo embolizamos. Y, por supuesto, necesitaremos que se potencie mucho más la formación en cuestiones relacionadas con los datos para adentrarnos en el ámbito de la radiómica y la radiogenómica. Además, contaremos con máquinas tremendamente sofisticadas —aún más que las que ya tenemos—. Por otro lado, estoy seguro de que los radiólogos no van a desaparecer, pero seguramente dejaremos de hacer algunas tareas para centrarnos en otras. Probablemente nos centraremos más en el análisis de los casos dudosos y positivos y en el trabajo multidisciplinar con otros profesionales, integrando en su trabajo los datos que nosotros podemos aportar. Los radiólogos tendremos que salir de nuestro marco y ser mucho más clínicos. Debemos entender las necesidades de otros especialistas, porque de lo contrario es difícil que ayudemos a tratar bien a los pacientes. Nuestro rol va a cambiar, como lleva pasando desde el inicio de la especialidad. En mis inicios, hace 33 años, realizaba pruebas para las que hoy ni siquiera existen máquinas en el Servicio, pero eso no significó que la especialidad muriese —de hecho, se piden cada vez más resonancias y TACs—. Lo que quiero es que la IA nos ayude a ser más eficientes y a ofrecer mejores respuestas.
Actualmente, en Galicia existe una política muy activa para integrar soluciones de inteligencia artificial en la práctica clínica y, concretamente, en radiología. No diría que somos pioneros, pero casi. Además, tenemos una ventaja: nuestra historia clínica electrónica. Creo que la nueva versión, al permitir la extracción de datos, puede ser fundamental para desarrollar la medicina de la próxima década. No ha sido sencillo llegar hasta el punto en el que nos encontramos debido a una obsesión —comprensible— con la ciberseguridad y la privacidad de los datos. Entiendo esa prudencia, que a veces ha lastrado la implantación, pero ahora el marco está claro y hay una apuesta muy importante del Sergas.
Es una oportunidad para hacer algo grande. La protonterapia, más allá de ser un tratamiento para un cierto número de pacientes al año, debe ser un vehículo disruptor para todo el Sergas. Se va a dotar con tecnología de imagen puntera y se integrará en la estrategia de crear un Comprehensive Cancer Center para Galicia, homogeneizando las prácticas oncológicas en un trabajo en red con los once centros que van a tener la tecnología aportada por la Fundación Amancio Ortega. Además, seguramente va a dar lugar a indicaciones que van más allá de las planteadas en la actualidad. Es probable que acabemos tratando cánceres de próstata o de mama, que no son objetivos actuales de la protonterapia. También queremos que sea un motor para analizar estrategias, para explotar la minería de datos y para crear una plataforma integradora que nos permita correlacionar la imagen, la anatomía patológica, la historia clínica… Este centro —que no es un proyecto de Santiago, sino de toda Galicia— nos puede servir de laboratorio de ensayos de ese enfoque de medicina de precisión, pero los beneficios deben ser exportables a todo el Sergas. La idea que late detrás es aprovechar esta oportunidad para innovar en valor, en análisis de datos y en aportar conocimiento a otras muchas áreas más allá de la propia radioterapia.