X-Node: L'Auto-Spiegazione è Tutto Ciò di Cui Abbiamo Bisogno
X-Node: Self-Explanation is All We Need
August 14, 2025
Autori: Prajit Sengupta, Islem Rekik
cs.AI
Abstract
Le reti neurali su grafi (GNN) hanno ottenuto risultati all'avanguardia nei compiti di visione artificiale e classificazione di immagini mediche, catturando le dipendenze strutturali tra le istanze di dati. Tuttavia, il loro processo decisionale rimane in gran parte opaco, limitando la loro affidabilità in applicazioni cliniche ad alto rischio, dove l'interpretabilità è essenziale. Le tecniche di spiegabilità esistenti per le GNN sono tipicamente post-hoc e globali, offrendo una visione limitata delle decisioni individuali dei nodi o del ragionamento locale. Introduciamo X-Node, un framework GNN auto-esplicativo in cui ogni nodo genera la propria spiegazione come parte del processo di previsione. Per ogni nodo, costruiamo un vettore di contesto strutturato che codifica indizi interpretabili come grado, centralità, clustering, salienza delle caratteristiche e accordo delle etichette all'interno della sua topologia locale. Un modulo Reasoner leggero mappa questo contesto in un vettore di spiegazione compatto, che serve a tre scopi: (1) ricostruire l'embedding latente del nodo tramite un decoder per garantire la fedeltà, (2) generare una spiegazione in linguaggio naturale utilizzando un LLM pre-addestrato (ad esempio, Grok o Gemini), e (3) guidare la GNN stessa tramite un meccanismo di "iniezione di testo" che reinietta le spiegazioni nel pipeline di passaggio dei messaggi. Valutiamo X-Node su due dataset di grafi derivati da MedMNIST e MorphoMNIST, integrandolo con architetture GCN, GAT e GIN. I nostri risultati mostrano che X-Node mantiene un'accuratezza di classificazione competitiva producendo spiegazioni fedeli per ogni nodo. Repository: https://github.com/basiralab/X-Node.
English
Graph neural networks (GNNs) have achieved state-of-the-art results in
computer vision and medical image classification tasks by capturing structural
dependencies across data instances. However, their decision-making remains
largely opaque, limiting their trustworthiness in high-stakes clinical
applications where interpretability is essential. Existing explainability
techniques for GNNs are typically post-hoc and global, offering limited insight
into individual node decisions or local reasoning. We introduce X-Node, a
self-explaining GNN framework in which each node generates its own explanation
as part of the prediction process. For every node, we construct a structured
context vector encoding interpretable cues such as degree, centrality,
clustering, feature saliency, and label agreement within its local topology. A
lightweight Reasoner module maps this context into a compact explanation
vector, which serves three purposes: (1) reconstructing the node's latent
embedding via a decoder to enforce faithfulness, (2) generating a natural
language explanation using a pre-trained LLM (e.g., Grok or Gemini), and (3)
guiding the GNN itself via a "text-injection" mechanism that feeds explanations
back into the message-passing pipeline. We evaluate X-Node on two graph
datasets derived from MedMNIST and MorphoMNIST, integrating it with GCN, GAT,
and GIN backbones. Our results show that X-Node maintains competitive
classification accuracy while producing faithful, per-node explanations.
Repository: https://github.com/basiralab/X-Node.