神経変性型認知症のための説明可能な診断フレームワーク: 強化学習最適化された大規模言語モデル推論によるアプローチ
An Explainable Diagnostic Framework for Neurodegenerative Dementias via Reinforcement-Optimized LLM Reasoning
May 26, 2025
著者: Andrew Zamai, Nathanael Fijalkow, Boris Mansencal, Laurent Simon, Eloi Navet, Pierrick Coupe
cs.AI
要旨
神経変性性認知症の鑑別診断は、症状の重複や構造的ニューロイメージングで観察されるパターンの類似性から、臨床的に困難な課題です。診断効率と精度を向上させるため、畳み込みニューラルネットワークやVision Transformerなどの深層学習ベースの手法が、脳MRIの自動分類に提案されています。しかし、これらのモデルは高い予測性能を持つにもかかわらず、意思決定の不透明さから臨床的有用性が限られています。本研究では、診断の透明性を高めるために2つのコアコンポーネントを統合したフレームワークを提案します。まず、3D T1強調脳MRIをテキスト形式の放射線科レポートに変換するモジュール型パイプラインを導入します。次に、生成されたレポートに基づいて、前頭側頭型認知症のサブタイプ、アルツハイマー病、および正常な加齢を鑑別診断する際に、現代の大規模言語モデル(LLM)が臨床医を支援する可能性を探ります。予測精度と説明可能性のギャップを埋めるため、強化学習を用いてLLMに診断推論を促します。教師ありの推論トレースや大規模モデルからの蒸留を必要とせず、ニューロイメージング所見に基づいた構造化された診断根拠が自然に生まれるアプローチを採用しています。モデルの決定を事後的に正当化するポストホックな説明可能性手法とは異なり、本フレームワークは推論プロセスの一部として診断根拠を生成します。これにより、モデルの意思決定プロセスを情報提供し導く因果的根拠に基づいた説明が可能となります。このようにして、本フレームワークは既存の深層学習手法と同等の診断性能を維持しつつ、診断結論を支持する根拠を提供します。
English
The differential diagnosis of neurodegenerative dementias is a challenging
clinical task, mainly because of the overlap in symptom presentation and the
similarity of patterns observed in structural neuroimaging. To improve
diagnostic efficiency and accuracy, deep learning-based methods such as
Convolutional Neural Networks and Vision Transformers have been proposed for
the automatic classification of brain MRIs. However, despite their strong
predictive performance, these models find limited clinical utility due to their
opaque decision making. In this work, we propose a framework that integrates
two core components to enhance diagnostic transparency. First, we introduce a
modular pipeline for converting 3D T1-weighted brain MRIs into textual
radiology reports. Second, we explore the potential of modern Large Language
Models (LLMs) to assist clinicians in the differential diagnosis between
Frontotemporal dementia subtypes, Alzheimer's disease, and normal aging based
on the generated reports. To bridge the gap between predictive accuracy and
explainability, we employ reinforcement learning to incentivize diagnostic
reasoning in LLMs. Without requiring supervised reasoning traces or
distillation from larger models, our approach enables the emergence of
structured diagnostic rationales grounded in neuroimaging findings. Unlike
post-hoc explainability methods that retrospectively justify model decisions,
our framework generates diagnostic rationales as part of the inference
process-producing causally grounded explanations that inform and guide the
model's decision-making process. In doing so, our framework matches the
diagnostic performance of existing deep learning methods while offering
rationales that support its diagnostic conclusions.Summary
AI-Generated Summary