강화 학습 최적화된 대형 언어 모델 추론을 통한 신경퇴행성 치매의 설명 가능한 진단 프레임워크
An Explainable Diagnostic Framework for Neurodegenerative Dementias via Reinforcement-Optimized LLM Reasoning
May 26, 2025
저자: Andrew Zamai, Nathanael Fijalkow, Boris Mansencal, Laurent Simon, Eloi Navet, Pierrick Coupe
cs.AI
초록
신경퇴행성 치매의 감별 진단은 주로 증상 발현의 중첩과 구조적 신경영상에서 관찰되는 패턴의 유사성으로 인해 어려운 임상 과제입니다. 진단 효율성과 정확성을 향상시키기 위해, 합성곱 신경망(Convolutional Neural Networks)과 비전 트랜스포머(Vision Transformers)와 같은 딥러닝 기반 방법들이 뇌 MRI의 자동 분류를 위해 제안되었습니다. 그러나 이러한 모델들은 강력한 예측 성능에도 불구하고, 불투명한 의사결정 과정으로 인해 임상적 유용성이 제한적입니다. 본 연구에서는 진단 투명성을 향상시키기 위해 두 가지 핵심 요소를 통합한 프레임워크를 제안합니다. 첫째, 3D T1 강조 뇌 MRI를 텍스트 기반의 방사선학 보고서로 변환하는 모듈식 파이프라인을 소개합니다. 둘째, 생성된 보고서를 기반으로 전두측두엽 치매 하위 유형, 알츠하이머병, 정상 노화를 감별 진단하는 데 현대적 대형 언어 모델(Large Language Models, LLMs)의 잠재력을 탐구합니다. 예측 정확도와 설명 가능성 간의 격차를 해소하기 위해, 우리는 LLMs에서 진단 추론을 장려하기 위해 강화 학습을 활용합니다. 지도된 추론 흔적이나 더 큰 모델로부터의 증류를 요구하지 않고, 우리의 접근 방식은 신경영상 소견에 기반한 구조화된 진단 근거의 출현을 가능하게 합니다. 사후 설명 가능성 방법들이 모델 결정을 사후적으로 정당화하는 것과 달리, 우리의 프레임워크는 추론 과정의 일부로 진단 근거를 생성함으로써 모델의 의사결정 과정을 정보 제공하고 안내하는 인과적 근거를 가진 설명을 생성합니다. 이를 통해, 우리의 프레임워크는 기존 딥러닝 방법들의 진단 성능을 유지하면서도 진단 결론을 지원하는 근거를 제공합니다.
English
The differential diagnosis of neurodegenerative dementias is a challenging
clinical task, mainly because of the overlap in symptom presentation and the
similarity of patterns observed in structural neuroimaging. To improve
diagnostic efficiency and accuracy, deep learning-based methods such as
Convolutional Neural Networks and Vision Transformers have been proposed for
the automatic classification of brain MRIs. However, despite their strong
predictive performance, these models find limited clinical utility due to their
opaque decision making. In this work, we propose a framework that integrates
two core components to enhance diagnostic transparency. First, we introduce a
modular pipeline for converting 3D T1-weighted brain MRIs into textual
radiology reports. Second, we explore the potential of modern Large Language
Models (LLMs) to assist clinicians in the differential diagnosis between
Frontotemporal dementia subtypes, Alzheimer's disease, and normal aging based
on the generated reports. To bridge the gap between predictive accuracy and
explainability, we employ reinforcement learning to incentivize diagnostic
reasoning in LLMs. Without requiring supervised reasoning traces or
distillation from larger models, our approach enables the emergence of
structured diagnostic rationales grounded in neuroimaging findings. Unlike
post-hoc explainability methods that retrospectively justify model decisions,
our framework generates diagnostic rationales as part of the inference
process-producing causally grounded explanations that inform and guide the
model's decision-making process. In doing so, our framework matches the
diagnostic performance of existing deep learning methods while offering
rationales that support its diagnostic conclusions.Summary
AI-Generated Summary