Объяснимая диагностическая система для нейродегенеративных деменций с использованием оптимизированного метода рассуждений на основе языковых моделей и обучения с подкреплением
An Explainable Diagnostic Framework for Neurodegenerative Dementias via Reinforcement-Optimized LLM Reasoning
May 26, 2025
Авторы: Andrew Zamai, Nathanael Fijalkow, Boris Mansencal, Laurent Simon, Eloi Navet, Pierrick Coupe
cs.AI
Аннотация
Дифференциальная диагностика нейродегенеративных деменций представляет собой сложную клиническую задачу, главным образом из-за перекрытия симптоматики и сходства паттернов, наблюдаемых в структурной нейровизуализации. Для повышения эффективности и точности диагностики были предложены методы на основе глубокого обучения, такие как сверточные нейронные сети и трансформеры для изображений, для автоматической классификации МРТ головного мозга. Однако, несмотря на их высокую прогностическую производительность, эти модели находят ограниченное клиническое применение из-за непрозрачности процесса принятия решений. В данной работе мы предлагаем фреймворк, который объединяет два ключевых компонента для повышения прозрачности диагностики. Во-первых, мы представляем модульный конвейер для преобразования 3D T1-взвешенных МРТ головного мозга в текстовые радиологические отчеты. Во-вторых, мы исследуем потенциал современных крупных языковых моделей (LLM) для помощи клиницистам в дифференциальной диагностике между подтипами фронтотемпоральной деменции, болезнью Альцгеймера и нормальным старением на основе сгенерированных отчетов. Чтобы сократить разрыв между прогностической точностью и объяснимостью, мы используем обучение с подкреплением для стимулирования диагностического рассуждения в LLM. Без необходимости в контролируемых траекториях рассуждений или дистилляции из более крупных моделей наш подход позволяет формировать структурированные диагностические обоснования, основанные на данных нейровизуализации. В отличие от постфактумных методов объяснимости, которые ретроспективно обосновывают решения модели, наш фреймворк генерирует диагностические обоснования как часть процесса вывода, создавая причинно обоснованные объяснения, которые информируют и направляют процесс принятия решений модели. Таким образом, наш фреймворк демонстрирует диагностическую производительность, сопоставимую с существующими методами глубокого обучения, при этом предоставляя обоснования, поддерживающие его диагностические выводы.
English
The differential diagnosis of neurodegenerative dementias is a challenging
clinical task, mainly because of the overlap in symptom presentation and the
similarity of patterns observed in structural neuroimaging. To improve
diagnostic efficiency and accuracy, deep learning-based methods such as
Convolutional Neural Networks and Vision Transformers have been proposed for
the automatic classification of brain MRIs. However, despite their strong
predictive performance, these models find limited clinical utility due to their
opaque decision making. In this work, we propose a framework that integrates
two core components to enhance diagnostic transparency. First, we introduce a
modular pipeline for converting 3D T1-weighted brain MRIs into textual
radiology reports. Second, we explore the potential of modern Large Language
Models (LLMs) to assist clinicians in the differential diagnosis between
Frontotemporal dementia subtypes, Alzheimer's disease, and normal aging based
on the generated reports. To bridge the gap between predictive accuracy and
explainability, we employ reinforcement learning to incentivize diagnostic
reasoning in LLMs. Without requiring supervised reasoning traces or
distillation from larger models, our approach enables the emergence of
structured diagnostic rationales grounded in neuroimaging findings. Unlike
post-hoc explainability methods that retrospectively justify model decisions,
our framework generates diagnostic rationales as part of the inference
process-producing causally grounded explanations that inform and guide the
model's decision-making process. In doing so, our framework matches the
diagnostic performance of existing deep learning methods while offering
rationales that support its diagnostic conclusions.Summary
AI-Generated Summary