X-Node : L'auto-explication est tout ce dont nous avons besoin
X-Node: Self-Explanation is All We Need
August 14, 2025
papers.authors: Prajit Sengupta, Islem Rekik
cs.AI
papers.abstract
Les réseaux de neurones graphiques (GNN) ont obtenu des résultats de pointe dans les tâches de vision par ordinateur et de classification d'images médicales en capturant les dépendances structurelles entre les instances de données. Cependant, leur processus de décision reste largement opaque, limitant leur fiabilité dans les applications cliniques à haut risque où l'interprétabilité est essentielle. Les techniques d'explicabilité existantes pour les GNN sont généralement post-hoc et globales, offrant peu d'informations sur les décisions individuelles des nœuds ou le raisonnement local. Nous présentons X-Node, un cadre de GNN auto-explicatif dans lequel chaque nœud génère sa propre explication dans le cadre du processus de prédiction. Pour chaque nœud, nous construisons un vecteur de contexte structuré encodant des indices interprétables tels que le degré, la centralité, le clustering, la saillance des caractéristiques et l'accord des labels au sein de sa topologie locale. Un module Reasoner léger transforme ce contexte en un vecteur d'explication compact, qui sert trois objectifs : (1) reconstruire l'embedding latent du nœud via un décodeur pour garantir la fidélité, (2) générer une explication en langage naturel à l'aide d'un LLM pré-entraîné (par exemple, Grok ou Gemini), et (3) guider le GNN lui-même via un mécanisme d'"injection de texte" qui réinjecte les explications dans le pipeline de passage de messages. Nous évaluons X-Node sur deux ensembles de données graphiques dérivés de MedMNIST et MorphoMNIST, en l'intégrant avec des architectures GCN, GAT et GIN. Nos résultats montrent que X-Node maintient une précision de classification compétitive tout en produisant des explications fidèles par nœud. Dépôt : https://github.com/basiralab/X-Node.
English
Graph neural networks (GNNs) have achieved state-of-the-art results in
computer vision and medical image classification tasks by capturing structural
dependencies across data instances. However, their decision-making remains
largely opaque, limiting their trustworthiness in high-stakes clinical
applications where interpretability is essential. Existing explainability
techniques for GNNs are typically post-hoc and global, offering limited insight
into individual node decisions or local reasoning. We introduce X-Node, a
self-explaining GNN framework in which each node generates its own explanation
as part of the prediction process. For every node, we construct a structured
context vector encoding interpretable cues such as degree, centrality,
clustering, feature saliency, and label agreement within its local topology. A
lightweight Reasoner module maps this context into a compact explanation
vector, which serves three purposes: (1) reconstructing the node's latent
embedding via a decoder to enforce faithfulness, (2) generating a natural
language explanation using a pre-trained LLM (e.g., Grok or Gemini), and (3)
guiding the GNN itself via a "text-injection" mechanism that feeds explanations
back into the message-passing pipeline. We evaluate X-Node on two graph
datasets derived from MedMNIST and MorphoMNIST, integrating it with GCN, GAT,
and GIN backbones. Our results show that X-Node maintains competitive
classification accuracy while producing faithful, per-node explanations.
Repository: https://github.com/basiralab/X-Node.