En este episodio de Memorándum exploramos un tema fascinante y cada vez más presente en la práctica médica: cómo entienden el lenguaje los modelos de inteligencia artificial y qué significa esto para la radiología.

A partir del artículo de Felipe Kitamura et al., publicado en Radiology en 2025, y de la editorial de Park y Min, hablaremos de los fundamentos de los large language models (LLMs), la arquitectura transformer y conceptos como tokens, embeddings y self-attention. Explicaremos cómo se entrenan estos modelos, cómo generan texto y cuáles son sus aplicaciones prácticas en radiología: desde la estandarización de reportes hasta la comunicación con pacientes, la minería de datos y la integración multimodal con imágenes.

También discutiremos los riesgos: alucinaciones, sesgos, privacidad, sesgo de automatización, y la necesidad de entender a los LLMs como copilotos digitales que acompañan, pero no reemplazan, al juicio clínico del radiólogo.

Un recorrido claro, técnico pero accesible, para comprender cómo nuestros reportes dejan de ser solo notas y se convierten en datos que transforman la práctica radiológica.

Link del artículo: https://doi.org/10.1148/radiol.243217
Link de la Editorial: https://doi.org/10.1148/radiol.252060