Un cadre diagnostique explicable pour les démences neurodégénératives via un raisonnement optimisé par renforcement de modèles de langage
An Explainable Diagnostic Framework for Neurodegenerative Dementias via Reinforcement-Optimized LLM Reasoning
May 26, 2025
Auteurs: Andrew Zamai, Nathanael Fijalkow, Boris Mansencal, Laurent Simon, Eloi Navet, Pierrick Coupe
cs.AI
Résumé
Le diagnostic différentiel des démences neurodégénératives constitue une tâche clinique complexe, principalement en raison du chevauchement des symptômes et de la similarité des motifs observés en imagerie cérébrale structurelle. Pour améliorer l'efficacité et la précision diagnostiques, des méthodes basées sur l'apprentissage profond, telles que les réseaux de neurones convolutifs et les Vision Transformers, ont été proposées pour la classification automatique des IRM cérébrales. Cependant, malgré leurs performances prédictives élevées, ces modèles trouvent une utilité clinique limitée en raison de leur processus décisionnel opaque. Dans ce travail, nous proposons un cadre intégrant deux composants clés pour renforcer la transparence diagnostique. Premièrement, nous introduisons un pipeline modulaire pour convertir des IRM cérébrales 3D pondérées en T1 en rapports radiologiques textuels. Deuxièmement, nous explorons le potentiel des modèles de langage modernes (LLMs) pour assister les cliniciens dans le diagnostic différentiel entre les sous-types de démence frontotemporale, la maladie d'Alzheimer et le vieillissement normal, en s'appuyant sur les rapports générés. Pour combler l'écart entre précision prédictive et explicabilité, nous utilisons l'apprentissage par renforcement pour encourager le raisonnement diagnostique dans les LLMs. Sans nécessiter de traces de raisonnement supervisées ou de distillation à partir de modèles plus grands, notre approche permet l'émergence de justifications diagnostiques structurées, ancrées dans les observations d'imagerie. Contrairement aux méthodes d'explicabilité post-hoc qui justifient rétrospectivement les décisions du modèle, notre cadre génère des justifications diagnostiques durant le processus d'inférence, produisant des explications causalement fondées qui informent et guident la prise de décision du modèle. Ainsi, notre cadre atteint des performances diagnostiques comparables aux méthodes d'apprentissage profond existantes tout en fournissant des justifications qui étayent ses conclusions diagnostiques.
English
The differential diagnosis of neurodegenerative dementias is a challenging
clinical task, mainly because of the overlap in symptom presentation and the
similarity of patterns observed in structural neuroimaging. To improve
diagnostic efficiency and accuracy, deep learning-based methods such as
Convolutional Neural Networks and Vision Transformers have been proposed for
the automatic classification of brain MRIs. However, despite their strong
predictive performance, these models find limited clinical utility due to their
opaque decision making. In this work, we propose a framework that integrates
two core components to enhance diagnostic transparency. First, we introduce a
modular pipeline for converting 3D T1-weighted brain MRIs into textual
radiology reports. Second, we explore the potential of modern Large Language
Models (LLMs) to assist clinicians in the differential diagnosis between
Frontotemporal dementia subtypes, Alzheimer's disease, and normal aging based
on the generated reports. To bridge the gap between predictive accuracy and
explainability, we employ reinforcement learning to incentivize diagnostic
reasoning in LLMs. Without requiring supervised reasoning traces or
distillation from larger models, our approach enables the emergence of
structured diagnostic rationales grounded in neuroimaging findings. Unlike
post-hoc explainability methods that retrospectively justify model decisions,
our framework generates diagnostic rationales as part of the inference
process-producing causally grounded explanations that inform and guide the
model's decision-making process. In doing so, our framework matches the
diagnostic performance of existing deep learning methods while offering
rationales that support its diagnostic conclusions.Summary
AI-Generated Summary