X-Node: Selbst-Erklärung ist alles, was wir brauchen
X-Node: Self-Explanation is All We Need
August 14, 2025
papers.authors: Prajit Sengupta, Islem Rekik
cs.AI
papers.abstract
Graph Neural Networks (GNNs) haben in der Computer Vision und bei der Klassifizierung medizinischer Bilder durch die Erfassung struktureller Abhängigkeiten zwischen Dateninstanzen state-of-the-art Ergebnisse erzielt. Ihre Entscheidungsfindung bleibt jedoch weitgehend undurchsichtig, was ihre Vertrauenswürdigkeit in klinischen Hochrisikoanwendungen, bei denen Interpretierbarkeit entscheidend ist, einschränkt. Bestehende Erklärbarkeitstechniken für GNNs sind typischerweise nachträglich und global und bieten nur begrenzte Einblicke in individuelle Knotenentscheidungen oder lokale Schlussfolgerungen. Wir stellen X-Node vor, ein selbst-erklärendes GNN-Framework, in dem jeder Knoten seine eigene Erklärung als Teil des Vorhersageprozesses generiert. Für jeden Knoten konstruieren wir einen strukturierten Kontextvektor, der interpretierbare Hinweise wie Grad, Zentralität, Clustering, Feature-Salienz und Label-Übereinstimmung innerhalb seiner lokalen Topologie kodiert. Ein leichtgewichtiges Reasoner-Modul bildet diesen Kontext auf einen kompakten Erklärungsvektor ab, der drei Zwecken dient: (1) Rekonstruktion der latenten Einbettung des Knotens über einen Decoder, um Treue zu gewährleisten, (2) Generierung einer natürlichen Spracherklärung mithilfe eines vortrainierten LLM (z. B. Grok oder Gemini) und (3) Führung des GNN selbst über einen „Text-Injection“-Mechanismus, der Erklärungen zurück in die Message-Passing-Pipeline einspeist. Wir evaluieren X-Node anhand von zwei Graph-Datensätzen, die aus MedMNIST und MorphoMNIST abgeleitet wurden, und integrieren es mit GCN-, GAT- und GIN-Backbones. Unsere Ergebnisse zeigen, dass X-Node eine wettbewerbsfähige Klassifizierungsgenauigkeit beibehält, während es treue, pro-Knoten-Erklärungen liefert. Repository: https://github.com/basiralab/X-Node.
English
Graph neural networks (GNNs) have achieved state-of-the-art results in
computer vision and medical image classification tasks by capturing structural
dependencies across data instances. However, their decision-making remains
largely opaque, limiting their trustworthiness in high-stakes clinical
applications where interpretability is essential. Existing explainability
techniques for GNNs are typically post-hoc and global, offering limited insight
into individual node decisions or local reasoning. We introduce X-Node, a
self-explaining GNN framework in which each node generates its own explanation
as part of the prediction process. For every node, we construct a structured
context vector encoding interpretable cues such as degree, centrality,
clustering, feature saliency, and label agreement within its local topology. A
lightweight Reasoner module maps this context into a compact explanation
vector, which serves three purposes: (1) reconstructing the node's latent
embedding via a decoder to enforce faithfulness, (2) generating a natural
language explanation using a pre-trained LLM (e.g., Grok or Gemini), and (3)
guiding the GNN itself via a "text-injection" mechanism that feeds explanations
back into the message-passing pipeline. We evaluate X-Node on two graph
datasets derived from MedMNIST and MorphoMNIST, integrating it with GCN, GAT,
and GIN backbones. Our results show that X-Node maintains competitive
classification accuracy while producing faithful, per-node explanations.
Repository: https://github.com/basiralab/X-Node.