X-Node: Самодостаточное объяснение — это всё, что нам нужно
X-Node: Self-Explanation is All We Need
August 14, 2025
Авторы: Prajit Sengupta, Islem Rekik
cs.AI
Аннотация
Графовые нейронные сети (GNN) достигли передовых результатов в задачах компьютерного зрения и классификации медицинских изображений, улавливая структурные зависимости между экземплярами данных. Однако их процесс принятия решений остается в значительной степени непрозрачным, что ограничивает их надежность в критически важных клинических приложениях, где интерпретируемость является ключевой. Существующие методы объяснимости для GNN, как правило, являются постфактумными и глобальными, предоставляя ограниченное понимание решений отдельных узлов или локальной логики. Мы представляем X-Node — самообъясняемую архитектуру GNN, в которой каждый узел генерирует собственное объяснение в процессе предсказания. Для каждого узла мы создаем структурированный контекстный вектор, кодирующий интерпретируемые признаки, такие как степень, центральность, кластеризация, значимость признаков и согласованность меток в его локальной топологии. Легковесный модуль Reasoner преобразует этот контекст в компактный вектор объяснения, который выполняет три функции: (1) восстанавливает скрытое представление узла через декодер для обеспечения достоверности, (2) генерирует объяснение на естественном языке с использованием предобученной языковой модели (например, Grok или Gemini) и (3) направляет саму GNN через механизм "внедрения текста", который возвращает объяснения в процесс передачи сообщений. Мы оцениваем X-Node на двух наборах графовых данных, полученных из MedMNIST и MorphoMNIST, интегрируя его с архитектурами GCN, GAT и GIN. Наши результаты показывают, что X-Node сохраняет конкурентоспособную точность классификации, одновременно предоставляя достоверные объяснения для каждого узла. Репозиторий: https://github.com/basiralab/X-Node.
English
Graph neural networks (GNNs) have achieved state-of-the-art results in
computer vision and medical image classification tasks by capturing structural
dependencies across data instances. However, their decision-making remains
largely opaque, limiting their trustworthiness in high-stakes clinical
applications where interpretability is essential. Existing explainability
techniques for GNNs are typically post-hoc and global, offering limited insight
into individual node decisions or local reasoning. We introduce X-Node, a
self-explaining GNN framework in which each node generates its own explanation
as part of the prediction process. For every node, we construct a structured
context vector encoding interpretable cues such as degree, centrality,
clustering, feature saliency, and label agreement within its local topology. A
lightweight Reasoner module maps this context into a compact explanation
vector, which serves three purposes: (1) reconstructing the node's latent
embedding via a decoder to enforce faithfulness, (2) generating a natural
language explanation using a pre-trained LLM (e.g., Grok or Gemini), and (3)
guiding the GNN itself via a "text-injection" mechanism that feeds explanations
back into the message-passing pipeline. We evaluate X-Node on two graph
datasets derived from MedMNIST and MorphoMNIST, integrating it with GCN, GAT,
and GIN backbones. Our results show that X-Node maintains competitive
classification accuracy while producing faithful, per-node explanations.
Repository: https://github.com/basiralab/X-Node.