ChatPaper.aiChatPaper

RadAgent: Een hulpmiddelgebruikende AI-agent voor stapsgewijze interpretatie van computertomografie van de borstkas

RadAgent: A tool-using AI agent for stepwise interpretation of chest computed tomography

April 16, 2026
Auteurs: Mélanie Roschewitz, Kenneth Styppa, Yitian Tao, Jiwoong Sohn, Jean-Benoit Delbrouck, Benjamin Gundersen, Nicolas Deperrois, Christian Bluethgen, Julia Vogt, Bjoern Menze, Farhad Nooralahzadeh, Michael Krauthammer, Michael Moor
cs.AI

Samenvatting

Vision-language modellen (VLM) hebben de AI-gestuurde interpretatie en rapportage van complexe medische beeldvorming, zoals computertomografie (CT), aanzienlijk vooruitgeholpen. Toch reduceren bestaande methoden clinici grotendeels tot passieve waarnemers van eindresultaten, zonder een interpreteerbaar redeneerspoor voor hen om te inspecteren, valideren of verfijnen. Om dit aan te pakken, introduceren we RadAgent, een AI-agent die tools gebruikt om CT-rapporten te genereren via een stapsgewijs en interpreteerbaar proces. Elk resulterend rapport wordt vergezeld door een volledig inspecteerbaar spoor van tussenbeslissingen en toolinteracties, waardoor clinici kunnen nagaan hoe de gerapporteerde bevindingen worden afgeleid. In onze experimenten merken we op dat RadAgent de generatie van borst-CT-rapporten verbetert ten opzichte van zijn 3D VLM-tegenhanger, CT-Chat, op drie dimensies. De klinische nauwkeurigheid verbetert met 6,0 punten (36,4% relatief) in macro-F1 en 5,4 punten (19,6% relatief) in micro-F1. De robuustheid onder adversariële omstandigheden verbetert met 24,7 punten (41,9% relatief). Bovendien behaalt RadAgent 37,0% in betrouwbaarheid (faithfulness), een geheel nieuwe capaciteit die afwezig is in zijn 3D VLM-tegenhanger. Door de interpretatie van borst-CT's te structureren als een expliciet, met tools versterkt en iteratief redeneerspoor, brengt RadAgent ons dichter bij transparante en betrouwbare AI voor radiologie.
English
Vision-language models (VLM) have markedly advanced AI-driven interpretation and reporting of complex medical imaging, such as computed tomography (CT). Yet, existing methods largely relegate clinicians to passive observers of final outputs, offering no interpretable reasoning trace for them to inspect, validate, or refine. To address this, we introduce RadAgent, a tool-using AI agent that generates CT reports through a stepwise and interpretable process. Each resulting report is accompanied by a fully inspectable trace of intermediate decisions and tool interactions, allowing clinicians to examine how the reported findings are derived. In our experiments, we observe that RadAgent improves Chest CT report generation over its 3D VLM counterpart, CT-Chat, across three dimensions. Clinical accuracy improves by 6.0 points (36.4% relative) in macro-F1 and 5.4 points (19.6% relative) in micro-F1. Robustness under adversarial conditions improves by 24.7 points (41.9% relative). Furthermore, RadAgent achieves 37.0% in faithfulness, a new capability entirely absent in its 3D VLM counterpart. By structuring the interpretation of chest CT as an explicit, tool-augmented and iterative reasoning trace, RadAgent brings us closer toward transparent and reliable AI for radiology.
PDF52April 18, 2026