La responsabilidad del médico frente a la inteligencia artificial

El Colegio acogió una jornada en la que Roberto García y Fernando Suanzes compartieron sus impresiones sobre el impacto de la IA en la profesión

La inteligencia artificial y su implantación en el ejercicio médico es una materia de actualidad que nuestro Colegio tiene muy presente. Por ello, la Comisión de Ética y Deontología organizó una jornada que giró en torno a esta tecnología y su efecto en la responsabilidad del facultativo en el ejercicio profesional. El evento tuvo lugar en la sede de Riego de Agua, el 28 de octubre, y se celebró en el marco del 130 aniversario del Colegio. La sesión fue introducida por Luciano Vidán, presidente colegial, y contó con Fernando Suanzes, exfiscal superior de Galicia, y Roberto García Figueiras, jefe del Servicio de Radiodiagnóstico del Complejo Hospitalario Universitario de Santiago de Compostela. Felipe Trillo, especialista en Medicina Familiar y Comunitaria y secretario de nuestra Comisión de Ética y Deontología, moderó el encuentro. Además, entre el público estuvieron el conselleiro de Sanidad, Antonio Gómez Caamaño; el rector de la Universidad de A Coruña, Ricardo Cao, y el director general de Mayores y Atención Sociosanitaria de la Xunta, Antón Acevedo.

“Todos los profesionales que tenemos ciertas inquietudes somos conscientes de que se acerca un mundo nuevo. Los más optimistas creemos que es extraordinario y que va a facilitar muchísimo nuestro trabajo”, afirmó Luciano Vidán. “Es verdad que le tenemos miedo y nos produce preocupación en varios aspectos. El primero es aquel que tiene que ver con la responsabilidad”. Señaló que el avance de la inteligencia artificial implicará que pase de ser una herramienta manejada por el médico a un colaborador y que puede que se llegue hasta un punto en el que el ser humano viva en un estado de sumisión respecto a esta tecnología. “Para nosotros es algo preocupante y por eso vimos con tan buenos ojos que la Comisión de Ética y Deontología quisiese abrir un debate sobre este tema”.

Felipe Trillo inició la mesa asegurando que “analizar esta nueva tecnología y las consecuencias que puede tener es pura bioética. De hecho, siempre ha crecido a la par del desarrollo tecnológico porque se dedica, en parte, a vigilarlo y controlarlo para que no se vuelva en contra de la humanidad”.

Roberto García Figueiras expuso que, en 2016, el premio Nobel de Física Geoffrey Hinton aseguró que no haría falta formar radiólogos porque, en cinco años desde aquel momento, la IA acabaría superando al ser humano. “Muchos nos ven al servicio de la tecnología, y la inteligencia artificial es su máxima expresión. Es fácil que nos llegue a sustituir”, comentó. 

Expuso la evolución de los ordenadores desde los tiempos de los equipos que poseían una capacidad de 48 kilobytes de memoria RAM, mientras que los actuales pueden superar los 64 gigabytes. “El desarrollo ha sido inmenso. Cada dos años se duplicaba el número de transistores en un chip, que representaba la capacidad computacional de las máquinas”. 

El radiólogo destacó que esta nueva realidad parece sugerir un choque entre el facultativo y la inteligencia artificial, que cada vez es más rápida y potente. Sin embargo, recordó que “a veces no conocemos aquello que tememos” y puso como ejemplo una placa de una paciente para demostrar las diferencias entre el razonamiento humano y el de la inteligencia artificial. “La mente de las personas tiende a ordenar el caos y a analizar lo que está pasando. Si vemos un gas sobre el hígado, inferimos una serie de cosas y sacamos nuestra conclusión”. A continuación, solicitó que ChatGPT ofreciese su propio diagnóstico y aportó dos posibilidades que eran incorrectas. No obstante, “los pacientes, cuando buscan respuestas, pueden acudir a este tipo de herramientas”, que no están diseñadas para ejercer esta función. 

En medicina, “la inteligencia artificial está presente en todo nuestro trabajo y ejercicio diario”, puntualizó el doctor García Figueiras. “Permite colocar al paciente, hacer protocolos e informes, analizar las imágenes tras procesarlas y puede ofrecer diagnósticos alternativos. Podemos usarla y beneficiarnos en cualquier campo de nuestro trabajo diario. Tenemos 278 algoritmos y 109 compañías en Europa que cuentan con licencia reconocida por la Agencia Europea del Medicamento para desarrollar herramientas de inteligencia artificial aplicables a la medicina”.

El radiólogo indicó que esto solo es el principio. “La inteligencia artificial no es una inteligencia genérica, como la del ser humano. Debe tener una tarea definida”. Además, recalcó que “el desarrollo tecnológico está llegando a un momento en el que no seremos capaces de adaptarnos”. Esto supone un posible problema cuyo freno podría consistir en destruir estas máquinas —escenario menos probable— o restringir su uso para que se mantengan los puestos de trabajo que podría eliminar. “¿Sería ético privar al paciente de una herramienta que puede detectar una fractura que se nos ha pasado a nosotros? No creo que lo sea. No puedo defender mi profesión impidiendo que entre una tecnología porque afecta a mi situación laboral”. También añadió que existen muchos actores con un rol importante en el desarrollo de esta IA desde un punto de vista ético, legal, administrativo, regulatorio, profesional o el de los pacientes, por señalar algunos.

Roberto García Figueiras recordó que “nos dedicamos a muchas tareas que, a veces, no son productivas. La inteligencia artificial puede ayudarnos a saber si un estudio está indicado o no sin que nosotros lo revisemos. Un algoritmo donde están metidos todos los protocolos permite que un médico pida una prueba y que le indique si lo hace de la manera adecuada. No tiene ningún sentido que revisemos 150 peticiones cada semana”.

El ponente expuso que, ante estos avances, la Unión Europea hizo que un grupo de expertos ponderasen las IAs. “Valoraron ciertos contenidos y propuestas éticas sobre la inteligencia artificial”. Concluyeron que los sistemas deben favorecer la autonomía humana, ser sólidos, asegurar la privacidad del paciente y rendir cuentas, y no pueden tener sesgos de diversidad. “No son tareas sencillas de cumplir”. 

Reveló que un grupo de radiólogos cuestionó quién es el responsable de las decisiones al utilizar esta tecnología. “Nos dicen que el médico, pero también nos indican que los radiólogos deben ser entrenados en su uso y en entender qué está haciendo esa herramienta. Este escenario me parece un tanto utópico”. Además de evidenciar la dificultad que supone conocer estos programas de manera profunda, aseguró que al utilizarla existe el riesgo de validar la caja negra, que hace referencia al algoritmo de aprendizaje de esta tecnología, sin saber cómo funciona. “Tú no sabes qué pasa en esa caja negra”. Otro riesgo que abordó es el del sesgo de automatización. “Puedo pensar que la IA no se equivoca nunca y yo sí, y tomar una decisión basada en esa supuesta superioridad”.

Por otro lado, “tenemos que saber en qué rango estamos utilizando esta tecnología, ya sea como screening, segundo lector o meramente para investigar. Si se cambia el marco, también lo hace el valor de la IA”. Expuso que al utilizarla “tiene que haber una calidad en el dato con el que nutrimos a la inteligencia artificial para que el algoritmo sea bueno. Si no lo es, no va a funcionar”. Al elaborar este punto, el doctor García Figueiras explicó que la información que se le proporciona debe ser detallada para no caer en sesgos y definir la realidad para diferenciarla y evitar respuestas falsas. Ejemplificó la importancia del aprendizaje para la herramienta en el caso de dos universidades alemanas. A pesar de funcionar correctamente con datos propios, su rendimiento cayó al exponerlas a fuentes diferentes. “Eso plantea que tenemos que calibrar nuestra inteligencia artificial y testearla con nuestros datos antes de implementarla”. 

El facultativo afirmó que la IA de fracturas que se utiliza en A Coruña, Santiago y otros centros de Galicia tiene un valor predictivo negativo del 97 % y volvió a evidenciar el papel del médico para comprobar que estas herramientas no cometan fallos. También señaló la importancia de conocer para qué se utilizan, dado que pueden centrarse en áreas específicas dentro del ejercicio profesional. Además, es necesario potenciar su seguridad y minimizar los riesgos para el paciente. 

El ponente remarcó que, a pesar de la importancia de comparar los distintos modelos de inteligencia artificial, no es algo fácil de llevar a cabo. “Si quiero comprar una IA para la próstata en el Sergas, probaré dos modelos, ¿pero a cuál le hago caso? Uno reconoce una lesión en la resonancia, y el otro encuentra dos. Esto no es baladí, dado que me obliga a biopsiar un sitio o los dos. Tiene importancia clínica”.

La inteligencia artificial “tiene la capacidad de alucinar y crear lesiones donde no las hay. Las inventa en ocasiones”, recordó. “Ese escenario en el que aseguramos que todo lo relacionado con esta tecnología es maravilloso y muy eficiente no es tan sencillo. También tenemos que evitar los sesgos. No podemos olvidar que la IA ve del modo que le hemos enseñado. Los sesgos no los crea ella”, explicó para enmarcar cómo la información que le proporcionan sus creadores son las causas de estos fallos de aprendizaje. Roberto García Figueiras subrayó que estos errores, y otros fallos, pueden tener graves consecuencias sin supervisión y si se antepone el criterio de la máquina. “Si sesgo mi opinión porque un modelo de inteligencia artificial dice que un paciente tiene cáncer, puede que biopsie a alguien que no lo padece. Debo tener el conocimiento para corregirla, pero eso crea el reto de que haya una divergencia de criterio, que puede ser algo complicado de gestionar”.

A continuación, Fernando Suanzes tomó la palabra para seguir ahondando en la responsabilidad del médico ante la inteligencia artificial, un “tema actual, apasionante e inquietante”. Inició su intervención parafraseando a Mustafa Suleyman, director y cofundador de DeepMind, compañía de IA que fue adquirida por Google. “Dice que estamos ante una ola tecnológica de capacidades radicales que se nos puede ir de las manos. Puede escaparse del control humano y transformar el orden político y social”. El ponente también declaró que “se ha comentado que la inteligencia artificial es inevitable” y, al profundizar en este punto, subrayó que “hay que actuar sobre todos los descubrimientos que produce el ser humano; entre otras razones, porque nos caracterizamos por poder hacer lo bueno, lo malo y lo que está en el medio. Todo lo que se puede hacer, se hará”.

También hizo referencia al filósofo del Derecho, Daniel Innerarity. “Sugiere que hay que surfear la ola tecnológica —incluyendo la robótica y la biología sintética—”. Afirmó que se puede lograr en este momento y que, según Mustafa Suleyman, se puede hacer a través de la “contención” propiciada por una anticipación normativa o la coordinación internacional. “Tengo mis dudas de que se pueda llevar a cabo en un espacio breve de tiempo. Suleyman entiende que no se puede contener y que hay que innovar y hacer cosas distintas”.

Evidenció que es importante que los profesionales y los colegios aborden la responsabilidad en este campo. “Según datos de 2025, la medicina es la primera disciplina en el ámbito de desarrollo de la inteligencia artificial. Se está utilizando en el diagnóstico médico de precisión, en los análisis automatizados de imágenes radiológicas y en el diseño de fármacos y personalización de tratamientos en función del perfil genético del paciente”, entre otros. Añadió que “debería desdramatizarse la responsabilidad médica porque los datos del Instituto Nacional de Estadística de 2025 acreditan que, de los numerosos supuestos que ocurren en España, solo el 1 % de las denuncias penales generan una sentencia condenatoria”. A su juicio, “tenemos un ámbito jurídico en el que la actividad médica se desarrolla fuera de lo que se entiende por una responsabilidad estrictamente jurídica, y también hay una parte que se solventa en diversos tribunales”.

Una vez realizada esta introducción, reflexionó sobre algunas cuestiones, como si la inteligencia artificial debe considerarse aliada o enemiga. “A mi juicio, en el momento actual, es una amiga absolutamente necesaria, aunque utiliza una tecnología radical”. Otra pregunta es cómo es posible que el médico pueda responder de una herramienta cuyo funcionamiento no comprende completamente. “Yo diría que hay que tener una cierta predisposición a no confiar absolutamente en cualquier cosa que nos diga la inteligencia artificial”.

Fernando Suanzes también propuso una serie de principios para el derecho penal y el ejercicio de la medicina con dignidad digital. “Debe haber un principio de transparencia algorítmica garantista. Ninguna decisión que afecte a derechos fundamentales debe tener un funcionamiento opaco. Hay que conocer cómo funciona”. La segunda de estas reglas es “un principio de formación tecnológica de los operadores, pero aquí tenemos un grave problema” debido a la complejidad de estas herramientas. “Ocurre lo mismo desde el otro extremo”, señaló al indicar las dificultades para entender aspectos del derecho o la medicina desde la informática. La tercera propuesta gira alrededor de un principio de ética. “Tal vez no sea posible aplicar ahora los códigos deontológicos del siglo XX. Se requiere una nueva ética profesional adaptada a esa tentación de delegar todo sobre la máquina, que cada vez va a ser mayor”. También añadió otros puntos, como el control y validación de estos sistemas de inteligencia artificial y garantizar que la última palabra la tenga el juez en el derecho y el médico en la medicina. Sobre este aspecto, aseguró que “en el Tribunal Constitucional se han aportado datos por abogados de sentencias que no existían” por culpa de la IA.

Respecto a la responsabilidad, si el mecanismo de la IA “no funciona de forma autónoma absoluta y requiere una supervisión controlada, el médico puede responder por ello, ya sea porque no reacciona a tiempo o porque no utiliza el sistema de manera correcta, entre otras posibles razones”. Sin embargo, “estamos evolucionando a un sistema autónomo. Aquí las cosas cambian. Si una inteligencia artificial es capaz de realizar la totalidad de una operación, como podría ser un parto, y el médico ejerce solo de mero observador, aquí intervienen otra serie de factores y actores que pueden ser responsables”. 

Entre las posibles eventualidades que ofreció se enumeraron el fallo del fabricante o de quien ha introducido el software, así como posibles errores en el sistema. También habló de algunos ejemplos más singulares, como la cirugía asistida por robots del sistema DaVinci. “Aquí la IA no ejecuta decisiones propias y no sustituye a la persona que la utiliza”. Otro caso es el de los diagnósticos por imagen con herramientas como Google DeepMind, que son capaces de detectar tumores, fracturas o lesiones cutáneas. “El médico interpreta el resultado y decide si validarlo o descartarlo. El riesgo jurídico que hay es que, en mi opinión, puede ser responsable porque no debe fiarse de la inteligencia artificial y debería complementarla con otros mecanismos”.

La medicina personalizada y la predicción de riesgos también fueron exploradas por el ponente. “Hay una serie de plataformas y algoritmos que recomiendan tratamientos basados en el perfil genético del paciente. Ahí, la inteligencia artificial compara mutaciones genéticas, comprueba el historial y sugiere terapias. El médico debe evaluar la recomendación en función del contexto clínico. A mi juicio, aquí sigue siendo un supervisor y puede seguir siendo responsable”. Del mismo modo, el diagnóstico digital en Urgencias y triaje automatizado supuso otro ejemplo de interés sobre la responsabilidad. “La inteligencia artificial analiza síntomas que tiene el paciente y prioriza urgencias. El médico recibe un informe inicial, pero debe confirmar o rectificar esta clasificación”.

Fernando Suanzes también evidenció la utilización de chatbots para usos terapéuticos y acompañamiento emocional dentro del ámbito de la salud mental. “Si lo supervisa un médico, es bien recibido porque complementa el tratamiento. Si se hace de forma independiente, lo que ocurra será responsabilidad de los programadores y todos los que hayan intervenido en la creación de ese sistema”. 

La asistencia en decisiones clínicas y el soporte al diagnóstico global supusieron un ejemplo más complicado al tratar aplicaciones que pueden detectar el deterioro clínico en la UCI, analizar constantes vitales, conocer el riesgo de fallo multiorgánico y evaluar alertas. “Todo lo que funciona de manera urgente y rápida genera una decisión que es muy positiva si se acierta, pero, si el médico ignora la alerta, realiza otras comprobaciones y acaba en un desenlace letal, probablemente tendrá una responsabilidad que fijarán los tribunales”.

A continuación, afirmó que la inteligencia artificial posee “un espectro de autonomía que está en desarrollo, con supervisión en la mayoría de los casos”. A pesar de que no hay ningún ejemplo de autonomía total, retrató algunos que se acercaban, como la cirugía autónoma experimental o la robótica autónoma para la preparación de medicamentos en farmacia hospitalaria. “Estas son solo algunas de las situaciones que se están produciendo ahora, hasta que lleguemos al sistema de autonomía total, que creo que se producirá antes de lo que pensamos”, resaltó el jurista. “Estamos creando algo que puede ser más inteligente que los propios humanos. Ese es un reto de futuro que no veo claro”. Finalmente, añadió que “nos encontramos ante un camino que nunca ha existido en la humanidad y puede superarnos. Es posible controlarlo ahora mismo, pero no sé si se podrá seguir haciendo dentro de unos años”.