Ein erklärbares Diagnoseframework für neurodegenerative Demenzen mittels verstärkungsoptimierter LLM-Argumentation
An Explainable Diagnostic Framework for Neurodegenerative Dementias via Reinforcement-Optimized LLM Reasoning
May 26, 2025
Autoren: Andrew Zamai, Nathanael Fijalkow, Boris Mansencal, Laurent Simon, Eloi Navet, Pierrick Coupe
cs.AI
Zusammenfassung
Die Differentialdiagnose neurodegenerativer Demenzen stellt eine anspruchsvolle klinische Aufgabe dar, vor allem aufgrund der Überschneidungen in der Symptompräsentation und der Ähnlichkeit der Muster, die in der strukturellen Bildgebung des Gehirns beobachtet werden. Um die diagnostische Effizienz und Genauigkeit zu verbessern, wurden Deep-Learning-Methoden wie Convolutional Neural Networks und Vision Transformers für die automatische Klassifizierung von MRT-Aufnahmen des Gehirns vorgeschlagen. Trotz ihrer starken Vorhersageleistung finden diese Modelle jedoch aufgrund ihrer undurchsichtigen Entscheidungsfindung nur begrenzt klinische Anwendung. In dieser Arbeit schlagen wir ein Framework vor, das zwei Kernkomponenten integriert, um die diagnostische Transparenz zu erhöhen. Zunächst führen wir eine modulare Pipeline zur Konvertierung von 3D-T1-gewichteten MRT-Aufnahmen des Gehirns in textuelle radiologische Berichte ein. Zweitens untersuchen wir das Potenzial moderner Large Language Models (LLMs), um Kliniker bei der Differentialdiagnose zwischen Frontotemporaler Demenz-Subtypen, Alzheimer-Krankheit und normalem Altern auf der Grundlage der generierten Berichte zu unterstützen. Um die Lücke zwischen Vorhersagegenauigkeit und Erklärbarkeit zu schließen, setzen wir Reinforcement Learning ein, um diagnostisches Denken in LLMs zu fördern. Ohne überwachte Denkspuren oder Destillation aus größeren Modellen zu benötigen, ermöglicht unser Ansatz die Entstehung strukturierter diagnostischer Begründungen, die auf bildgebenden Befunden basieren. Im Gegensatz zu post-hoc-Erklärungsmethoden, die Modellentscheidungen rückwirkend rechtfertigen, generiert unser Framework diagnostische Begründungen als Teil des Inferenzprozesses – und erzeugt damit kausal fundierte Erklärungen, die den Entscheidungsprozess des Modells informieren und leiten. Auf diese Weise erreicht unser Framework die diagnostische Leistung bestehender Deep-Learning-Methoden und bietet gleichzeitig Begründungen, die seine diagnostischen Schlussfolgerungen unterstützen.
English
The differential diagnosis of neurodegenerative dementias is a challenging
clinical task, mainly because of the overlap in symptom presentation and the
similarity of patterns observed in structural neuroimaging. To improve
diagnostic efficiency and accuracy, deep learning-based methods such as
Convolutional Neural Networks and Vision Transformers have been proposed for
the automatic classification of brain MRIs. However, despite their strong
predictive performance, these models find limited clinical utility due to their
opaque decision making. In this work, we propose a framework that integrates
two core components to enhance diagnostic transparency. First, we introduce a
modular pipeline for converting 3D T1-weighted brain MRIs into textual
radiology reports. Second, we explore the potential of modern Large Language
Models (LLMs) to assist clinicians in the differential diagnosis between
Frontotemporal dementia subtypes, Alzheimer's disease, and normal aging based
on the generated reports. To bridge the gap between predictive accuracy and
explainability, we employ reinforcement learning to incentivize diagnostic
reasoning in LLMs. Without requiring supervised reasoning traces or
distillation from larger models, our approach enables the emergence of
structured diagnostic rationales grounded in neuroimaging findings. Unlike
post-hoc explainability methods that retrospectively justify model decisions,
our framework generates diagnostic rationales as part of the inference
process-producing causally grounded explanations that inform and guide the
model's decision-making process. In doing so, our framework matches the
diagnostic performance of existing deep learning methods while offering
rationales that support its diagnostic conclusions.Summary
AI-Generated Summary