«La inteligencia artificial puede ayudar a que los médicos estén más alejados de la pantalla y más cerca del paciente»

«Estas herramientas permiten automatizar muchas tareas básicas y tienen un gran potencial para encontrar diagnósticos y tratamientos»

Entrevista a Julián Isla Gómez responsable de Datos y Recursos de Inteligencia Artificial de Microsoft

Julián Isla Gómez (Madrid, 1972) es el responsable de Datos y Recursos de Inteligencia Artificial de Microsoft España —empresa a la que ha estado vinculado durante casi toda su trayectoria profesional tras licenciarse como ingeniero de software en la Universidad Politécnica de Madrid— y el impulsor de la Fundación 29, en la que han desarrollado herramientas con inteligencia artificial para conseguir un diagnóstico precoz de enfermedades raras. Es padre de un niño con síndrome de Dravet, que inicialmente no fue tratado correctamente de esta patología por un error en el diagnóstico. Además, es miembro del Comité Científico de Medicamentos Huérfanos de la Agencia Europea del Medicamento, asesor del Centro de Investigación Biomédica en Red de Enfermedades Raras y colaborador en varios proyectos de los ministerios de Ciencia y de Sanidad.

En los últimos años hemos visto una explosión en el desarrollo de la inteligencia artificial. ¿En qué momento nos encontramos?

En primer lugar, tenemos que diferenciar entre la inteligencia artificial que hemos utilizado hasta ahora de la inteligencia artificial generativa basada en modelos de lenguaje. El gran cambio que hemos visto —a raíz de que el aprendizaje profundo se hiciera popular en este siglo y del gran desarrollo de los modelos de lenguaje en los dos últimos años— ha generado un escenario en el que la inteligencia artificial, por primera vez en la historia, puede hacer tareas que a nosotros nos parecen cognitivas. Esa es la gran diferencia. Además, pueden hacerlo con un propósito general, sin tener que entrenar a una IA determinada para un fin particular.

¿Cómo ha cambiado ese proceso?

En el pasado, para utilizar inteligencia artificial, desarrollábamos modelos específicos: si queríamos entrenarla para distinguir animales, le pasábamos un conjunto de fotografías de gatos, por ejemplo. Después, al pasarle una imagen, la red neuronal era capaz de decir con qué probabilidad aquello que aparecía en la fotografía era un gato. Otro ejemplo son los modelos para predecir el tiempo. Sin embargo, en la actualidad contamos con una herramienta que puede generar algo nuevo que no existía. En un principio pensábamos que nos serviría para generar imágenes, pero cuando lo que podemos crear es texto se abre un mundo nuevo de posibilidades, porque podemos simular capacidades cognitivas. Esto afecta a muchas profesiones donde, evidentemente, esas capacidades son necesarias.

¿Qué utilidad puede tener la inteligencia artificial en el ámbito médico?

Creo que la medicina está altamente expuesta a ese entorno, porque la mayoría del conocimiento médico se encuentra en forma de texto. Por supuesto, también hay imágenes, pero estas pueden pasarse a texto y, además, ahora contamos con modelos multimodales. 

Julián Isla IA

¿Por qué decidió aplicar su conocimiento como ingeniero de software al ámbito sanitario?

Mi hijo, Sergio, tiene síndrome de Dravet, una enfermedad rara y hubo problemas a la hora de diagnosticarla. Me pareció increíble que el neurólogo, hace 15 años, no utilizara ninguna herramienta que le sugiriera un diagnóstico a partir de sus síntomas. Y todavía seguimos igual. Por otro lado, también me sorprendió conocer el número de patologías para las que no tenemos tratamiento. De las 10.000 enfermedades raras que existen, puede haber tratamiento para un centenar, y muy pocos son capaces de cambiar la trayectoria de la enfermedad. Las cifras de curación son muy bajas. La medicina tiene problemas de conocimiento, de generación de nuevos tratamientos y, sobre todo, de capacidad, con niveles de saturación que ya hemos dado por habituales. Además, está llena de labores administrativas, y el médico dedica la mayor parte del tiempo que está con un paciente a teclear en el ordenador. La inteligencia artificial probablemente nos permita automatizar muchas tareas básicas y tiene un gran potencial —que ya está demostrando— en la gestión del conocimiento médico para encontrar diagnósticos y tratamientos.

¿La tecnología podría servir para ayudar a los médicos a pasar más tiempo mirando al paciente a los ojos y menos a la pantalla?

Ese es el objetivo. Como informático, siempre pido disculpas a mis amigos médicos por haberles hecho herramientas informáticas tan malas. Son espantosas desde el punto de vista de experiencia de usuario, y eso, que puede parecer anecdótico, impacta en la productividad. Entre todos tenemos que hacer un esfuerzo para que los médicos estén más alejados de la pantalla y más cerca del paciente. Se trata de algo fundamental, y la inteligencia artificial puede ayudar en este sentido. Por ejemplo, puede transcribir la conversación entre el facultativo y el paciente y elaborar automáticamente un resumen para incluirlo en la historia clínica, que el profesional puede modificar para añadir sus percepciones. Esto puede ahorrar mucho trabajo al médico.

¿Cómo puede ayudar la inteligencia artificial en el diagnóstico?

Me parece una locura que, a estas alturas, hagamos diagnósticos sin herramientas de apoyo, especialmente en el ámbito de las enfermedades raras, donde son mejores que cualquier médico. «En el examen MIR del año pasado, la inteligencia artificial acertó el 93% de las respuestas», y haremos otra prueba con el examen de este año empleando GPT-4. He hecho una pequeña prueba con dos de las preguntas que incluyen imagen y acertó ambas. Eran bastante sencillas, pero estamos hablando de una herramienta que no existía hace un año. El ritmo al que avanza es muy rápido, y los profesionales deben saber utilizarla porque les puede ayudar. Tal vez haya luditas que se opongan debido a la posibilidad de que el sistema falle y la inteligencia artificial deje de estar disponible en algún momento, pero eso también puede ocurrir con un ordenador y no dejamos de utilizarlos por ello. La dependencia tecnológica ya existe, como se vio durante el ciberataque al Hospital Clinic de Barcelona, que causó muchos problemas.

Después de que a su hijo le diagnosticaran síndrome de Dravet creó la Fundación 29. ¿A qué se dedica?

El síndrome de Dravet es una canalopatía producida por un gen que codifica el canal de sodio, lo que provoca problemas de despolarización temprana de células motoras o neuronales. En el caso de Sergio, esto le produce crisis epilépticas continuas e incontrolables. Cuando no tenía diagnóstico, el neurólogo —atendiendo al tipo de crisis— le prescribió un fármaco contraindicado para su enfermedad, de forma que pasó de tener una crisis al mes a veinte cada día. Cuando se dio con el diagnóstico correcto dejó de tener tantas, pero a lo largo de su vida ha sufrido 2.400. Ese diagnóstico podría haberse conseguido en un minuto empleando una herramienta que desarrollamos en la fundación el año pasado. Basta con introducir los síntomas para que el sistema lance la advertencia de que puede tratarse del síndrome de Dravet. Evidentemente, al médico no se le ocurrió que pudiera estar ante esa enfermedad porque nunca se había expuesto a un paciente similar. «La inteligencia artificial es clave en estos casos, porque puede identificar patologías que el profesional nunca ha visto en un paciente». En enfermedades comunes no es tan relevante, pero en las raras, cuando nos encontramos en el long tail de la curva de distribución, carecer de una herramienta que ayude a manejar la incertidumbre dificulta el trabajo y hace que el paciente sufra. También puede ser útil en enfermedades prevalentes cuando el fenotipo que generan no es el habitual. «Creo que tenemos que hacer el ejercicio de reconocer nuestras limitaciones como humanos y saber que posiblemente no podamos diagnosticar correctamente todos los casos que nos lleguen».

Una de las herramientas que han creado en la Fundación 29 es Dx29. ¿En qué consiste?

Es nuestra primera aproximación al diagnóstico de enfermedades raras. Básicamente, realiza una extracción fenotípica a partir de informes médicos. El profesional puede subir los informes del paciente y, a partir de ahí, se hace una extracción de la sintomatología a través de procesamiento de lenguaje natural. Después, los síntomas se codifican en el sistema Human Phenotype Ontology (HPO) de clasificación ontológica para enfermedades raras. Con eso se construye un fenotipo bruto que hay que comprobar, porque puede haber errores, pero simplifica mucho el proceso. «En los estudios clínicos que hemos publicado hemos que visto que un fenotipado que antes duraba dos horas puede hacerse en diez minutos, porque el trabajo duro lo realiza la máquina. Después, un algoritmo —que también está basado en inteligencia artificial— sugiere posibles patologías asociadas a ese fenotipo». Además, puede usarse información genómica para elaborar el listado de enfermedades. Es muy potente.

¿Qué otras iniciativas han desarrollado?

Una evolución de lo anterior es DxGPT, creada el año pasado. Se trata de una herramienta similar a Dx29 pero basada únicamente en GPT-4 —originalmente utilizamos la versión 3.5, que era la que estaba disponible en ese momento—, el modelo de lenguaje que proporciona OpenAI. En este caso no es necesario una extracción fenotípica ni nada demasiado profundo, sino que el profesional o el usuario introduce una descripción sencilla del caso, con su edad, sexo y síntomas. Esa información se pasa directamente al modelo de lenguaje para que genere una lista de patologías. Sorprendentemente, hemos visto que el índice de precisión se encuentra en torno al 88%. El sistema se puso a prueba con las enfermedades raras más prevalentes, que aglutinan el 80% de los casos. Con ello demostramos que los modelos de lenguaje se pueden utilizar para hacer este tipo de diagnósticos. Actualmente estamos haciendo pruebas clínicas retrospectivas con esta herramienta.

El lema de la fundación es ‘Los pacientes tienen los datos, los pacientes tienen el poder’. ¿Cómo puede afectar la implantación de herramientas de inteligencia artificial a la confidencialidad de la información de los pacientes?

Indudablemente pueden existir riesgos, porque todo este tipo de herramientas están basadas en nube pública y los datos pueden acabar en países con una regulación diferente en esta materia. Para nosotros es fundamental cumplir estrictamente con el Reglamento Europeo de Protección de Datos, y tenemos mucha experiencia en el manejo de datos confidenciales de pacientes. De hecho, hemos publicado una guía sobre cómo compartir datos sanitarios por el que la Agencia Española de Protección de Datos nos dio un premio de buenas prácticas. Todo uso de datos médicos en la IA tiene que hacerse con precaución y extrema prudencia. La forma en la que nosotros lo manejamos es siendo muy cumplidores, evitando que la información salga del espacio europeo de datos de salud y estando muy seguros de que únicamente nosotros podemos acceder a ella, que es un requisito fundamental como tratadores de la información. Por eso contamos con ayuda de expertos en este tipo de cuestiones regulatorias, para asegurarnos de que cualquier paso que damos en esa dirección es conforme al marco regulatorio.

¿Hacen algo más para favorecer la seguridad de los datos?

En la medida de los posible siempre intentamos manejar información anónima. De hecho, si se introduce información personal en DxGPT, la herramienta la detecta y la borra.  También utilizamos medidas de retención —el tiempo que mantienen los datos— muy estrictas, de forma que no guardamos ningún dato si no lo necesitamos. Y, por supuesto, no tenemos ningún tipo de cesión a terceros. Es decir, nunca hacemos uso secundario de los datos. Somos una fundación sin ánimo de lucro y los pacientes o los profesionales confían en nosotros, así que queremos asegurarnos de que los datos están seguros. Es fundamental para nosotros. En todo caso, no creo que la IA genere un problema adicional a lo que ya teníamos hasta ahora. Los riesgos a la hora de compartir datos están presentes desde la aparición de internet y el uso de servidores. Ahora, simplemente, hay más formas de que se expongan.

Al utilizar herramientas populares de inteligencia artificial, como ChatGPT, vemos que a veces sufre “alucinaciones” en la elaboración de textos. ¿Podría pasar algo similar con un diagnóstico?

Sí, es un riesgo, pero por fortuna cada vez se controla más en el propio modelo. En GPT-2 la capacidad de alucinación era enorme —de hecho, se inventaba enfermedades—, pero cuando apareció GPT-3.5 OpenAI hizo un gran esfuerzo para alinear las respuestas y que no tuviera esas alucinaciones, que son producto de cómo está hecho el modelo: no es más que un predictor de la siguiente palabra. Cuando el algoritmo determina cuál es la palabra que debe aparecer a continuación en el texto, la escribe, y le da igual si es real o no. Afortunadamente, la tecnología que se ha desarrollado durante el último año está permitiendo que la información esté alineada con lo que el usuario espera. Aunque las alucinaciones no han desaparecido, son mínimas. Además, puede hacerse que la IA se restrinja exclusivamente a un conjunto de datos inicial, de manera que la alucinación se limita mucho más. Es decir, se trata de un problema que poco a poco estamos solucionando tecnológicamente pero, en todo caso, siempre es importante que estas herramientas las supervise un humano. «No debemos permitir que una aplicación con posible uso médico, como la nuestra, funcione de forma automática, porque puede equivocarse». No sería adecuado asumir como ciertas las respuestas de la inteligencia artificial. Todo exige un procesamiento del profesional y, en este caso, máximo. «La IA puede ser un buen extensor de nuestras capacidades, pero no algo que reemplace al ser humano». En primer lugar, sería muy peligroso; en segundo, no estaría alineado con la regulación; y, en tercero, la tecnología con la que contamos actualmente no lo permite.

«