ChatPaper.aiChatPaper

Ein erklärbares Diagnoseframework für neurodegenerative Demenzen mittels verstärkungsoptimierter LLM-Argumentation

An Explainable Diagnostic Framework for Neurodegenerative Dementias via Reinforcement-Optimized LLM Reasoning

May 26, 2025
Autoren: Andrew Zamai, Nathanael Fijalkow, Boris Mansencal, Laurent Simon, Eloi Navet, Pierrick Coupe
cs.AI

Zusammenfassung

Die Differentialdiagnose neurodegenerativer Demenzen stellt eine anspruchsvolle klinische Aufgabe dar, vor allem aufgrund der Überschneidungen in der Symptompräsentation und der Ähnlichkeit der Muster, die in der strukturellen Bildgebung des Gehirns beobachtet werden. Um die diagnostische Effizienz und Genauigkeit zu verbessern, wurden Deep-Learning-Methoden wie Convolutional Neural Networks und Vision Transformers für die automatische Klassifizierung von MRT-Aufnahmen des Gehirns vorgeschlagen. Trotz ihrer starken Vorhersageleistung finden diese Modelle jedoch aufgrund ihrer undurchsichtigen Entscheidungsfindung nur begrenzt klinische Anwendung. In dieser Arbeit schlagen wir ein Framework vor, das zwei Kernkomponenten integriert, um die diagnostische Transparenz zu erhöhen. Zunächst führen wir eine modulare Pipeline zur Konvertierung von 3D-T1-gewichteten MRT-Aufnahmen des Gehirns in textuelle radiologische Berichte ein. Zweitens untersuchen wir das Potenzial moderner Large Language Models (LLMs), um Kliniker bei der Differentialdiagnose zwischen Frontotemporaler Demenz-Subtypen, Alzheimer-Krankheit und normalem Altern auf der Grundlage der generierten Berichte zu unterstützen. Um die Lücke zwischen Vorhersagegenauigkeit und Erklärbarkeit zu schließen, setzen wir Reinforcement Learning ein, um diagnostisches Denken in LLMs zu fördern. Ohne überwachte Denkspuren oder Destillation aus größeren Modellen zu benötigen, ermöglicht unser Ansatz die Entstehung strukturierter diagnostischer Begründungen, die auf bildgebenden Befunden basieren. Im Gegensatz zu post-hoc-Erklärungsmethoden, die Modellentscheidungen rückwirkend rechtfertigen, generiert unser Framework diagnostische Begründungen als Teil des Inferenzprozesses – und erzeugt damit kausal fundierte Erklärungen, die den Entscheidungsprozess des Modells informieren und leiten. Auf diese Weise erreicht unser Framework die diagnostische Leistung bestehender Deep-Learning-Methoden und bietet gleichzeitig Begründungen, die seine diagnostischen Schlussfolgerungen unterstützen.
English
The differential diagnosis of neurodegenerative dementias is a challenging clinical task, mainly because of the overlap in symptom presentation and the similarity of patterns observed in structural neuroimaging. To improve diagnostic efficiency and accuracy, deep learning-based methods such as Convolutional Neural Networks and Vision Transformers have been proposed for the automatic classification of brain MRIs. However, despite their strong predictive performance, these models find limited clinical utility due to their opaque decision making. In this work, we propose a framework that integrates two core components to enhance diagnostic transparency. First, we introduce a modular pipeline for converting 3D T1-weighted brain MRIs into textual radiology reports. Second, we explore the potential of modern Large Language Models (LLMs) to assist clinicians in the differential diagnosis between Frontotemporal dementia subtypes, Alzheimer's disease, and normal aging based on the generated reports. To bridge the gap between predictive accuracy and explainability, we employ reinforcement learning to incentivize diagnostic reasoning in LLMs. Without requiring supervised reasoning traces or distillation from larger models, our approach enables the emergence of structured diagnostic rationales grounded in neuroimaging findings. Unlike post-hoc explainability methods that retrospectively justify model decisions, our framework generates diagnostic rationales as part of the inference process-producing causally grounded explanations that inform and guide the model's decision-making process. In doing so, our framework matches the diagnostic performance of existing deep learning methods while offering rationales that support its diagnostic conclusions.

Summary

AI-Generated Summary

PDF02May 28, 2025