¿Cómo aprende a leer una máquina?: De tokens, embeddings y reportes radiologícos.

En este episodio de Memorándum exploramos un tema fascinante y cada vez más presente en la práctica médica: cómo entienden el lenguaje los modelos de inteligencia artificial y qué significa esto para la radiología.A partir del artículo de Felipe Kitamura et al., publicado en Radiology en 2025, y de la editorial de Park y Min, hablaremos de los fundamentos de los large language models (LLMs), la arquitectura transformer y conceptos como tokens, embeddings y self-attention. Explicaremos cómo se entrenan estos modelos, cómo generan texto y cuáles son sus aplicaciones prácticas en radiología: desde la estandarización de reportes hasta la comunicación con pacientes, la minería de datos y la integración multimodal con imágenes.También discutiremos los riesgos: alucinaciones, sesgos, privacidad, sesgo de automatización, y la necesidad de entender a los LLMs como copilotos digitales que acompañan, pero no reemplazan, al juicio clínico del radiólogo.Un recorrido claro, técnico pero accesible, para comprender cómo nuestros reportes dejan de ser solo notas y se convierten en datos que transforman la práctica radiológica.
Link del artículo: https://doi.org/10.1148/radiol.243217
Link de la Editorial: https://doi.org/10.1148/radiol.252060