ChatPaper.aiChatPaper

X-Node: L'Auto-Spiegazione è Tutto Ciò di Cui Abbiamo Bisogno

X-Node: Self-Explanation is All We Need

August 14, 2025
Autori: Prajit Sengupta, Islem Rekik
cs.AI

Abstract

Le reti neurali su grafi (GNN) hanno ottenuto risultati all'avanguardia nei compiti di visione artificiale e classificazione di immagini mediche, catturando le dipendenze strutturali tra le istanze di dati. Tuttavia, il loro processo decisionale rimane in gran parte opaco, limitando la loro affidabilità in applicazioni cliniche ad alto rischio, dove l'interpretabilità è essenziale. Le tecniche di spiegabilità esistenti per le GNN sono tipicamente post-hoc e globali, offrendo una visione limitata delle decisioni individuali dei nodi o del ragionamento locale. Introduciamo X-Node, un framework GNN auto-esplicativo in cui ogni nodo genera la propria spiegazione come parte del processo di previsione. Per ogni nodo, costruiamo un vettore di contesto strutturato che codifica indizi interpretabili come grado, centralità, clustering, salienza delle caratteristiche e accordo delle etichette all'interno della sua topologia locale. Un modulo Reasoner leggero mappa questo contesto in un vettore di spiegazione compatto, che serve a tre scopi: (1) ricostruire l'embedding latente del nodo tramite un decoder per garantire la fedeltà, (2) generare una spiegazione in linguaggio naturale utilizzando un LLM pre-addestrato (ad esempio, Grok o Gemini), e (3) guidare la GNN stessa tramite un meccanismo di "iniezione di testo" che reinietta le spiegazioni nel pipeline di passaggio dei messaggi. Valutiamo X-Node su due dataset di grafi derivati da MedMNIST e MorphoMNIST, integrandolo con architetture GCN, GAT e GIN. I nostri risultati mostrano che X-Node mantiene un'accuratezza di classificazione competitiva producendo spiegazioni fedeli per ogni nodo. Repository: https://github.com/basiralab/X-Node.
English
Graph neural networks (GNNs) have achieved state-of-the-art results in computer vision and medical image classification tasks by capturing structural dependencies across data instances. However, their decision-making remains largely opaque, limiting their trustworthiness in high-stakes clinical applications where interpretability is essential. Existing explainability techniques for GNNs are typically post-hoc and global, offering limited insight into individual node decisions or local reasoning. We introduce X-Node, a self-explaining GNN framework in which each node generates its own explanation as part of the prediction process. For every node, we construct a structured context vector encoding interpretable cues such as degree, centrality, clustering, feature saliency, and label agreement within its local topology. A lightweight Reasoner module maps this context into a compact explanation vector, which serves three purposes: (1) reconstructing the node's latent embedding via a decoder to enforce faithfulness, (2) generating a natural language explanation using a pre-trained LLM (e.g., Grok or Gemini), and (3) guiding the GNN itself via a "text-injection" mechanism that feeds explanations back into the message-passing pipeline. We evaluate X-Node on two graph datasets derived from MedMNIST and MorphoMNIST, integrating it with GCN, GAT, and GIN backbones. Our results show that X-Node maintains competitive classification accuracy while producing faithful, per-node explanations. Repository: https://github.com/basiralab/X-Node.
PDF82August 18, 2025