Los avances de la inteligencia artificial volvieron a ser tema de interés en un seminario en la sede de nuestro Colegio. Este taller se realizó el 18 de abril en colaboración con la Asociación de Profesores de Radiología y Medicina Física como acto inaugural de su XXXIX Seminario APURF. Su planteamiento encuadró apartados teóricos y prácticos sobre el desarrollo de esta tecnología y sus aplicaciones e impacto en la docencia y la investigación. En él participaron Manuel González Penedo, director del Centro de Investigaciones en Tecnologías de la Información y las Comunicaciones (Citic) de la Universidad de A Coruña y Javier de Toro, vicepresidente primero de nuestro Colegio.
Durante la apertura intervinieron el actual presidente de la APURF, Francisco Sendra, y su predecesor entre 2007 y 2017, Jorge Teijeiro. El actual representante de la asociación compartió su satisfacción al visitar A Coruña junto a otros miembros habituales de estas jornadas. “Nuestra misión en APURF es encontrarnos para estudiar aspectos relacionados con la docencia e investigación en radiología. El tiempo, los avances tecnológicos y los cambios legislativos van modificando muchas veces aquello a lo que nos dedicamos”, aseguró en alusión a la temática central de la sesión.
“Como dicen, ha venido para quedarse, pero lo ha hecho en un bólido. Estábamos hablando de la IA como ayuda al diagnóstico y, de repente, ha pasado por la derecha y ahora tenemos la IA generativa, que proporciona y analiza textos. Tenemos mucho que aprender y muy rápido”, puntualizó Francisco Sendra antes de ceder la palabra.
Jorge Teijeiro aportó unas cuantas notas sobre la historia de la APURF, que fue fundada en 1978, y su primer seminario se celebró en 1979. El doctor Teijeiro también rememoró sus estancias anteriores en A Coruña, donde la APURF celebró los seminarios XIV, XV y XVI en el Pazo de Mariñán (Bergondo) y en el castillo de Santa Cruz (Oleiros).
Manuel González Penedo protagonizó la charla Inteligencia artificial en la medicina actual. De dónde a dónde. Este especialista dejó de lado las formulaciones complejas y algoritmos relacionados con la informática para acercar el campo tecnológico al público a través de un repaso histórico.
La IA puede empezar a comprenderse a través de las ideas de Alan Turing, uno de los responsables de la existencia de este campo. Él dijo que “una computadora puede llegar a ser llamada inteligente si consigue que un ser humano crea que no es una maquina”, comentó el ponente. Tal percepción inspiró el test de Turing en 1950. La prueba consiste en una serie de preguntas cuyas respuestas determinan si quien lo realiza es un ser pensante o no. “Hoy en día hay muy pocos programas que lo pasen”, dijo.
La siguiente parada de esta mirada al pasado fue el verano de 1956. Varios científicos y expertos se reunieron en la universidad de Dartmouth, en Estados Unidos, para debatir y proponer nuevas ideas. Este ambiente académico fue el caldo de cultivo para las primeras líneas de investigación sobre inteligencia artificial. Al año siguiente salieron a la luz máquinas como el modelo neuronal de Frank Rosenblatt; un avance que emula, de manera simplificada, los patrones del funcionamiento del cerebro y que sirvió de precursor para la inteligencia artificial.
Un informe negativo sobre este campo tecnológico en 1973 impuso una etapa en que los avances se detuvieron a causa de la reducción de fondos. El periodo fue denominado “invierno de la IA”. No obstante, el año 1976 dio la bienvenida a Eliza, el primer Chatbot. Los sistemas básicos desarrollados en estas décadas provocaron la aparición de un segundo invierno hasta 1996. El ordenador de IBM, Deep Blue, derrotó al campeón del mundo de ajedrez, Garri Kaspárov. Así fueron surgiendo otros sistemas de mayor complejidad y capaces de vencer a seres humanos en juegos estratégicos o concursos televisivos. Sin embargo, el gran salto llegó en 2022 con ChatGPT.
Tras este resumen histórico, Manuel González Penedo pasó a tratar el presente. Destacó como objetivos esenciales en el trabajo con estos programas la mejora de su capacidad computacional para la resolución de problemas, la expansión de su memoria para albergar datos y las técnicas de aprendizaje automático para instruir a la inteligencia artificial. El último apartado trató sobre los algoritmos que permiten que las máquinas asimilen nuevos comportamientos y prácticas. Dentro de este ámbito aparece el aprendizaje profundo, con el que se enseña a estos procesadores en base a ejemplos y con los datos disponibles. “Esto es lo que lo ha revolucionado todo”, aseguró el conferenciante.
El director del Citic compartió una anécdota sobre el avance de esta tecnología, una vez más, a través de los juegos: “en 2017 crearon un programa, Libratus, que ganaba al póquer en partidas de dos jugadores. Se le dieron las reglas y las aprendió en base a las jugadas. Llegó a la conclusión de que para ganar tenía que mentir, lo cual abre muchas inquietudes”.
El siguiente salto ocurrió en 2019 con la IA generativa. “Se vuelve creativa y permite hacer cosas artísticas como imágenes, música, textos, videojuegos o simuladores científicos. Lo que estamos viendo es la punta del iceberg”, puntualizó el ponente antes de criticar la supuesta sostenibilidad de esta tecnología como estrategia comercial. Manuel González Penedo señaló que el funcionamiento del equipamiento requiere una enorme cantidad de energía para funcionar. Esto acarrea un impacto medio ambiental tanto por su huella de carbono como por la utilización de agua para su refrigeración.
Durante la intervención, diferenció tres tipos de inteligencia artificial: específica ―diseñada para abordar un solo problema―, general y la súper IA, cuya capacidad es la que se acerca más a la del ser humano. También enumeró varios aspectos a considerar a la hora de utilizar esta tecnología, como la robustez de su algoritmo, que es lo que hace que su sistema sea fiable. Además, el usuario debe poder comprender cómo funciona para validar sus afirmaciones.
Otra de las grandes problemáticas es el carácter discriminatorio que los procesadores heredan de la información. Una prueba mostrada a este respecto desveló que, al mostrarle una fotografía de una mano con un objeto, la IA identificaba que se trataba de una pistola cuando la piel era negra y un monocular al pintar la piel de blanco. “Estos sistemas funcionan porque se les presentan casos de entrenamiento para que aprendan. Normalmente todos nosotros tenemos un cierto sesgo inherente, que está en nuestros datos”, explicó.
El ponente concluyó su charla mencionando la creación de una nueva legislación sobre este campo dentro de la Unión Europea, que posee un baremo de niveles de riesgo en la inteligencia artificial. Además, hizo mención a la fundación de la Agencia Estatal de Supervisión de la Inteligencia Artificial (Aesia) en A Coruña. “Tenemos la responsabilidad de que la IA sea respetuosa, ética y sostenible”, subrayó.
Javier de Toro Santos planteó la sesión De la teoría a la práctica. La IA al servicio de la actividad clínica diaria. “Hay muchísimas actividades que ahora vemos como normales que tengan inteligencia artificial. El primer barrido que hacen las grandes empresas para seleccionar personal es a través de la IA”, explicó.
El facultativo presentó las distintas plataformas con este tipo de procesadores informáticos y ejemplificó su competencia con la que hubo en los 80 con la aparición del vídeo y el choque entre el modelo Beta y VHS: “hay una gran guerra por posicionarse como la única que lleve este tema”.
El interés de Javier de Toro se centró en aportar una herramienta con la que los médicos pudiesen afrontar la hoja en blanco ante las cuestiones incómodas que aparecen en el día a día de su trabajo. No obstante, también puntualizó la necesidad de comprender las limitaciones de estas máquinas al utilizarse: imitan, pero no tienen pensamiento racional. La gran diferencia entre una persona y la inteligencia artificial es que intenta emular al humano. También expuso que programas como ChatGPT o Copilot utilizan datos obtenidos en internet para su procesamiento, lo que hace que sus resultados puedan ser cuestionables y deban revisarse.
Antes de probar las distintas alternativas que ofrecen las plataformas, el ponente dijo que es necesario tener preparado un contexto adecuado con palabras e instrucciones claras para sacar el máximo partido. En sus demostraciones, solicitó a ChatGPT que desarrollase diferentes supuestos. En uno de los casos imaginó a un residente que debe afrontar cuestiones médicas y en otro preguntó los diferentes métodos de actuación a la hora de dar una mala noticia a un paciente y sus familiares. La respuesta sorprendió al público por su realismo y aportó soluciones como la metodología Spikes, protocolo utilizado para informar de algo negativo. “Es un lenguaje probabilístico. Cuanto mejor sean las instrucciones y el contexto, mejor será la respuesta de la IA”, aseguró.
El doctor De Toro continuó sus ensayos mostrando las ventajas de Copilot, que ofrece una IA generativa de imágenes en su paquete gratuito. La aplicación permitió recrear ilustraciones para comunicarse con los niños de una manera cercana y afable gracias a la claridad del contexto y las instrucciones dadas. “A mí me ahorra mucho trabajo”, expresó nuestro vicepresidente, aunque también volvió a subrayar la importancia de la mirada crítica. Al final tengo que sentarme y analizar si todo esto es cierto porque puede cometer errores.