ChatPaper.aiChatPaper

X-Node: Selbst-Erklärung ist alles, was wir brauchen

X-Node: Self-Explanation is All We Need

August 14, 2025
papers.authors: Prajit Sengupta, Islem Rekik
cs.AI

papers.abstract

Graph Neural Networks (GNNs) haben in der Computer Vision und bei der Klassifizierung medizinischer Bilder durch die Erfassung struktureller Abhängigkeiten zwischen Dateninstanzen state-of-the-art Ergebnisse erzielt. Ihre Entscheidungsfindung bleibt jedoch weitgehend undurchsichtig, was ihre Vertrauenswürdigkeit in klinischen Hochrisikoanwendungen, bei denen Interpretierbarkeit entscheidend ist, einschränkt. Bestehende Erklärbarkeitstechniken für GNNs sind typischerweise nachträglich und global und bieten nur begrenzte Einblicke in individuelle Knotenentscheidungen oder lokale Schlussfolgerungen. Wir stellen X-Node vor, ein selbst-erklärendes GNN-Framework, in dem jeder Knoten seine eigene Erklärung als Teil des Vorhersageprozesses generiert. Für jeden Knoten konstruieren wir einen strukturierten Kontextvektor, der interpretierbare Hinweise wie Grad, Zentralität, Clustering, Feature-Salienz und Label-Übereinstimmung innerhalb seiner lokalen Topologie kodiert. Ein leichtgewichtiges Reasoner-Modul bildet diesen Kontext auf einen kompakten Erklärungsvektor ab, der drei Zwecken dient: (1) Rekonstruktion der latenten Einbettung des Knotens über einen Decoder, um Treue zu gewährleisten, (2) Generierung einer natürlichen Spracherklärung mithilfe eines vortrainierten LLM (z. B. Grok oder Gemini) und (3) Führung des GNN selbst über einen „Text-Injection“-Mechanismus, der Erklärungen zurück in die Message-Passing-Pipeline einspeist. Wir evaluieren X-Node anhand von zwei Graph-Datensätzen, die aus MedMNIST und MorphoMNIST abgeleitet wurden, und integrieren es mit GCN-, GAT- und GIN-Backbones. Unsere Ergebnisse zeigen, dass X-Node eine wettbewerbsfähige Klassifizierungsgenauigkeit beibehält, während es treue, pro-Knoten-Erklärungen liefert. Repository: https://github.com/basiralab/X-Node.
English
Graph neural networks (GNNs) have achieved state-of-the-art results in computer vision and medical image classification tasks by capturing structural dependencies across data instances. However, their decision-making remains largely opaque, limiting their trustworthiness in high-stakes clinical applications where interpretability is essential. Existing explainability techniques for GNNs are typically post-hoc and global, offering limited insight into individual node decisions or local reasoning. We introduce X-Node, a self-explaining GNN framework in which each node generates its own explanation as part of the prediction process. For every node, we construct a structured context vector encoding interpretable cues such as degree, centrality, clustering, feature saliency, and label agreement within its local topology. A lightweight Reasoner module maps this context into a compact explanation vector, which serves three purposes: (1) reconstructing the node's latent embedding via a decoder to enforce faithfulness, (2) generating a natural language explanation using a pre-trained LLM (e.g., Grok or Gemini), and (3) guiding the GNN itself via a "text-injection" mechanism that feeds explanations back into the message-passing pipeline. We evaluate X-Node on two graph datasets derived from MedMNIST and MorphoMNIST, integrating it with GCN, GAT, and GIN backbones. Our results show that X-Node maintains competitive classification accuracy while producing faithful, per-node explanations. Repository: https://github.com/basiralab/X-Node.
PDF62August 18, 2025