X-Node: Zelfuitleg is Alles Wat We Nodig Hebben
X-Node: Self-Explanation is All We Need
August 14, 2025
Auteurs: Prajit Sengupta, Islem Rekik
cs.AI
Samenvatting
Graph neural networks (GNNs) hebben state-of-the-art resultaten behaald in computervisie en medische beeldclassificatietaken door structurele afhankelijkheden tussen gegevensinstanties vast te leggen. Hun besluitvorming blijft echter grotendeels ondoorzichtig, wat hun betrouwbaarheid beperkt in klinische toepassingen met grote gevolgen, waar interpretatie essentieel is. Bestaande verklaringsmethoden voor GNNs zijn typisch post-hoc en globaal, wat beperkt inzicht biedt in individuele nodebeslissingen of lokaal redeneren. Wij introduceren X-Node, een zelfverklarend GNN-framework waarin elke node zijn eigen verklaring genereert als onderdeel van het voorspellingsproces. Voor elke node construeren we een gestructureerde contextvector die interpreteerbare aanwijzingen codeert, zoals graad, centraliteit, clustering, kenmerksalientie en labelovereenstemming binnen zijn lokale topologie. Een lichtgewicht Reasoner-module vertaalt deze context naar een compacte verklaringsvector, die drie doelen dient: (1) het reconstrueren van de latente embedding van de node via een decoder om trouwheid af te dwingen, (2) het genereren van een natuurlijke taalverklaring met behulp van een vooraf getraind LLM (bijv. Grok of Gemini), en (3) het begeleiden van de GNN zelf via een "text-injection"-mechanisme dat verklaringen terugvoert in de message-passing-pipeline. We evalueren X-Node op twee grafiekdatasets afgeleid van MedMNIST en MorphoMNIST, waarbij we het integreren met GCN-, GAT- en GIN-backbones. Onze resultaten tonen aan dat X-Node concurrerende classificatienauwkeurigheid behoudt terwijl het trouwe, per-node verklaringen produceert. Repository: https://github.com/basiralab/X-Node.
English
Graph neural networks (GNNs) have achieved state-of-the-art results in
computer vision and medical image classification tasks by capturing structural
dependencies across data instances. However, their decision-making remains
largely opaque, limiting their trustworthiness in high-stakes clinical
applications where interpretability is essential. Existing explainability
techniques for GNNs are typically post-hoc and global, offering limited insight
into individual node decisions or local reasoning. We introduce X-Node, a
self-explaining GNN framework in which each node generates its own explanation
as part of the prediction process. For every node, we construct a structured
context vector encoding interpretable cues such as degree, centrality,
clustering, feature saliency, and label agreement within its local topology. A
lightweight Reasoner module maps this context into a compact explanation
vector, which serves three purposes: (1) reconstructing the node's latent
embedding via a decoder to enforce faithfulness, (2) generating a natural
language explanation using a pre-trained LLM (e.g., Grok or Gemini), and (3)
guiding the GNN itself via a "text-injection" mechanism that feeds explanations
back into the message-passing pipeline. We evaluate X-Node on two graph
datasets derived from MedMNIST and MorphoMNIST, integrating it with GCN, GAT,
and GIN backbones. Our results show that X-Node maintains competitive
classification accuracy while producing faithful, per-node explanations.
Repository: https://github.com/basiralab/X-Node.