ChatPaper.aiChatPaper

X-Node: Zelfuitleg is Alles Wat We Nodig Hebben

X-Node: Self-Explanation is All We Need

August 14, 2025
Auteurs: Prajit Sengupta, Islem Rekik
cs.AI

Samenvatting

Graph neural networks (GNNs) hebben state-of-the-art resultaten behaald in computervisie en medische beeldclassificatietaken door structurele afhankelijkheden tussen gegevensinstanties vast te leggen. Hun besluitvorming blijft echter grotendeels ondoorzichtig, wat hun betrouwbaarheid beperkt in klinische toepassingen met grote gevolgen, waar interpretatie essentieel is. Bestaande verklaringsmethoden voor GNNs zijn typisch post-hoc en globaal, wat beperkt inzicht biedt in individuele nodebeslissingen of lokaal redeneren. Wij introduceren X-Node, een zelfverklarend GNN-framework waarin elke node zijn eigen verklaring genereert als onderdeel van het voorspellingsproces. Voor elke node construeren we een gestructureerde contextvector die interpreteerbare aanwijzingen codeert, zoals graad, centraliteit, clustering, kenmerksalientie en labelovereenstemming binnen zijn lokale topologie. Een lichtgewicht Reasoner-module vertaalt deze context naar een compacte verklaringsvector, die drie doelen dient: (1) het reconstrueren van de latente embedding van de node via een decoder om trouwheid af te dwingen, (2) het genereren van een natuurlijke taalverklaring met behulp van een vooraf getraind LLM (bijv. Grok of Gemini), en (3) het begeleiden van de GNN zelf via een "text-injection"-mechanisme dat verklaringen terugvoert in de message-passing-pipeline. We evalueren X-Node op twee grafiekdatasets afgeleid van MedMNIST en MorphoMNIST, waarbij we het integreren met GCN-, GAT- en GIN-backbones. Onze resultaten tonen aan dat X-Node concurrerende classificatienauwkeurigheid behoudt terwijl het trouwe, per-node verklaringen produceert. Repository: https://github.com/basiralab/X-Node.
English
Graph neural networks (GNNs) have achieved state-of-the-art results in computer vision and medical image classification tasks by capturing structural dependencies across data instances. However, their decision-making remains largely opaque, limiting their trustworthiness in high-stakes clinical applications where interpretability is essential. Existing explainability techniques for GNNs are typically post-hoc and global, offering limited insight into individual node decisions or local reasoning. We introduce X-Node, a self-explaining GNN framework in which each node generates its own explanation as part of the prediction process. For every node, we construct a structured context vector encoding interpretable cues such as degree, centrality, clustering, feature saliency, and label agreement within its local topology. A lightweight Reasoner module maps this context into a compact explanation vector, which serves three purposes: (1) reconstructing the node's latent embedding via a decoder to enforce faithfulness, (2) generating a natural language explanation using a pre-trained LLM (e.g., Grok or Gemini), and (3) guiding the GNN itself via a "text-injection" mechanism that feeds explanations back into the message-passing pipeline. We evaluate X-Node on two graph datasets derived from MedMNIST and MorphoMNIST, integrating it with GCN, GAT, and GIN backbones. Our results show that X-Node maintains competitive classification accuracy while producing faithful, per-node explanations. Repository: https://github.com/basiralab/X-Node.
PDF82August 18, 2025