ChatPaper.aiChatPaper

Een Uitlegbare Diagnostische Framework voor Neurodegeneratieve Dementieën via Reinforcement-Geoptimaliseerd LLM Redeneren

An Explainable Diagnostic Framework for Neurodegenerative Dementias via Reinforcement-Optimized LLM Reasoning

May 26, 2025
Auteurs: Andrew Zamai, Nathanael Fijalkow, Boris Mansencal, Laurent Simon, Eloi Navet, Pierrick Coupe
cs.AI

Samenvatting

De differentiële diagnose van neurodegeneratieve dementieën is een uitdagende klinische taak, vooral vanwege de overlap in symptoompresentatie en de gelijkenis van patronen die worden waargenomen bij structurele neuroimaging. Om de diagnostische efficiëntie en nauwkeurigheid te verbeteren, zijn deep learning-methoden zoals Convolutionale Neurale Netwerken en Vision Transformers voorgesteld voor de automatische classificatie van hersen-MRI's. Desondanks vinden deze modellen, ondanks hun sterke voorspellende prestaties, beperkte klinische toepassing vanwege hun ondoorzichtige besluitvorming. In dit werk stellen we een raamwerk voor dat twee kerncomponenten integreert om de diagnostische transparantie te verbeteren. Ten eerste introduceren we een modulaire pijplijn voor het omzetten van 3D T1-gewogen hersen-MRI's in tekstuele radiologieverslagen. Ten tweede onderzoeken we het potentieel van moderne Large Language Models (LLMs) om clinici te ondersteunen bij de differentiële diagnose tussen subtypen van frontotemporale dementie, de ziekte van Alzheimer en normale veroudering op basis van de gegenereerde verslagen. Om de kloof tussen voorspellende nauwkeurigheid en verklaarbaarheid te overbruggen, gebruiken we reinforcement learning om diagnostische redenering in LLMs te stimuleren. Zonder dat er begeleide redeneersporen of distillatie van grotere modellen nodig is, maakt onze aanpak het mogelijk dat gestructureerde diagnostische redeneringen ontstaan die gebaseerd zijn op neuroimaging-bevindingen. In tegenstelling tot post-hoc verklaarbaarheidsmethoden die achteraf modelbeslissingen rechtvaardigen, genereert ons raamwerk diagnostische redeneringen als onderdeel van het inferentieproces, waardoor causale verklaringen worden geproduceerd die het besluitvormingsproces van het model informeren en sturen. Hierdoor evenaart ons raamwerk de diagnostische prestaties van bestaande deep learning-methoden, terwijl het redeneringen biedt die de diagnostische conclusies ondersteunen.
English
The differential diagnosis of neurodegenerative dementias is a challenging clinical task, mainly because of the overlap in symptom presentation and the similarity of patterns observed in structural neuroimaging. To improve diagnostic efficiency and accuracy, deep learning-based methods such as Convolutional Neural Networks and Vision Transformers have been proposed for the automatic classification of brain MRIs. However, despite their strong predictive performance, these models find limited clinical utility due to their opaque decision making. In this work, we propose a framework that integrates two core components to enhance diagnostic transparency. First, we introduce a modular pipeline for converting 3D T1-weighted brain MRIs into textual radiology reports. Second, we explore the potential of modern Large Language Models (LLMs) to assist clinicians in the differential diagnosis between Frontotemporal dementia subtypes, Alzheimer's disease, and normal aging based on the generated reports. To bridge the gap between predictive accuracy and explainability, we employ reinforcement learning to incentivize diagnostic reasoning in LLMs. Without requiring supervised reasoning traces or distillation from larger models, our approach enables the emergence of structured diagnostic rationales grounded in neuroimaging findings. Unlike post-hoc explainability methods that retrospectively justify model decisions, our framework generates diagnostic rationales as part of the inference process-producing causally grounded explanations that inform and guide the model's decision-making process. In doing so, our framework matches the diagnostic performance of existing deep learning methods while offering rationales that support its diagnostic conclusions.
PDF02May 28, 2025