ChatPaper.aiChatPaper

Um Framework Diagnóstico Explicável para Demências Neurodegenerativas via Raciocínio de LLM Otimizado por Reforço

An Explainable Diagnostic Framework for Neurodegenerative Dementias via Reinforcement-Optimized LLM Reasoning

May 26, 2025
Autores: Andrew Zamai, Nathanael Fijalkow, Boris Mansencal, Laurent Simon, Eloi Navet, Pierrick Coupe
cs.AI

Resumo

O diagnóstico diferencial das demências neurodegenerativas é uma tarefa clínica desafiadora, principalmente devido à sobreposição na apresentação dos sintomas e à similaridade dos padrões observados em neuroimagens estruturais. Para melhorar a eficiência e a precisão diagnóstica, métodos baseados em aprendizado profundo, como Redes Neurais Convolucionais e Vision Transformers, foram propostos para a classificação automática de ressonâncias magnéticas cerebrais. No entanto, apesar de seu forte desempenho preditivo, esses modelos têm utilidade clínica limitada devido à sua tomada de decisão opaca. Neste trabalho, propomos um framework que integra dois componentes principais para aumentar a transparência diagnóstica. Primeiro, introduzimos um pipeline modular para converter ressonâncias magnéticas cerebrais 3D ponderadas em T1 em relatórios radiológicos textuais. Segundo, exploramos o potencial dos modernos Modelos de Linguagem de Grande Escala (LLMs) para auxiliar os clínicos no diagnóstico diferencial entre subtipos de demência frontotemporal, doença de Alzheimer e envelhecimento normal com base nos relatórios gerados. Para preencher a lacuna entre precisão preditiva e explicabilidade, empregamos aprendizado por reforço para incentivar o raciocínio diagnóstico nos LLMs. Sem a necessidade de traços de raciocínio supervisionados ou destilação de modelos maiores, nossa abordagem permite o surgimento de racionalidades diagnósticas estruturadas fundamentadas em achados de neuroimagem. Diferente de métodos de explicabilidade pós-hoc que justificam retrospectivamente as decisões do modelo, nosso framework gera racionalidades diagnósticas como parte do processo de inferência, produzindo explicações causalmente fundamentadas que informam e guiam o processo de tomada de decisão do modelo. Ao fazer isso, nosso framework iguala o desempenho diagnóstico dos métodos existentes de aprendizado profundo, ao mesmo tempo em que oferece racionalidades que sustentam suas conclusões diagnósticas.
English
The differential diagnosis of neurodegenerative dementias is a challenging clinical task, mainly because of the overlap in symptom presentation and the similarity of patterns observed in structural neuroimaging. To improve diagnostic efficiency and accuracy, deep learning-based methods such as Convolutional Neural Networks and Vision Transformers have been proposed for the automatic classification of brain MRIs. However, despite their strong predictive performance, these models find limited clinical utility due to their opaque decision making. In this work, we propose a framework that integrates two core components to enhance diagnostic transparency. First, we introduce a modular pipeline for converting 3D T1-weighted brain MRIs into textual radiology reports. Second, we explore the potential of modern Large Language Models (LLMs) to assist clinicians in the differential diagnosis between Frontotemporal dementia subtypes, Alzheimer's disease, and normal aging based on the generated reports. To bridge the gap between predictive accuracy and explainability, we employ reinforcement learning to incentivize diagnostic reasoning in LLMs. Without requiring supervised reasoning traces or distillation from larger models, our approach enables the emergence of structured diagnostic rationales grounded in neuroimaging findings. Unlike post-hoc explainability methods that retrospectively justify model decisions, our framework generates diagnostic rationales as part of the inference process-producing causally grounded explanations that inform and guide the model's decision-making process. In doing so, our framework matches the diagnostic performance of existing deep learning methods while offering rationales that support its diagnostic conclusions.
PDF02December 4, 2025