ChatPaper.aiChatPaper

X-Node: Самодостаточное объяснение — это всё, что нам нужно

X-Node: Self-Explanation is All We Need

August 14, 2025
Авторы: Prajit Sengupta, Islem Rekik
cs.AI

Аннотация

Графовые нейронные сети (GNN) достигли передовых результатов в задачах компьютерного зрения и классификации медицинских изображений, улавливая структурные зависимости между экземплярами данных. Однако их процесс принятия решений остается в значительной степени непрозрачным, что ограничивает их надежность в критически важных клинических приложениях, где интерпретируемость является ключевой. Существующие методы объяснимости для GNN, как правило, являются постфактумными и глобальными, предоставляя ограниченное понимание решений отдельных узлов или локальной логики. Мы представляем X-Node — самообъясняемую архитектуру GNN, в которой каждый узел генерирует собственное объяснение в процессе предсказания. Для каждого узла мы создаем структурированный контекстный вектор, кодирующий интерпретируемые признаки, такие как степень, центральность, кластеризация, значимость признаков и согласованность меток в его локальной топологии. Легковесный модуль Reasoner преобразует этот контекст в компактный вектор объяснения, который выполняет три функции: (1) восстанавливает скрытое представление узла через декодер для обеспечения достоверности, (2) генерирует объяснение на естественном языке с использованием предобученной языковой модели (например, Grok или Gemini) и (3) направляет саму GNN через механизм "внедрения текста", который возвращает объяснения в процесс передачи сообщений. Мы оцениваем X-Node на двух наборах графовых данных, полученных из MedMNIST и MorphoMNIST, интегрируя его с архитектурами GCN, GAT и GIN. Наши результаты показывают, что X-Node сохраняет конкурентоспособную точность классификации, одновременно предоставляя достоверные объяснения для каждого узла. Репозиторий: https://github.com/basiralab/X-Node.
English
Graph neural networks (GNNs) have achieved state-of-the-art results in computer vision and medical image classification tasks by capturing structural dependencies across data instances. However, their decision-making remains largely opaque, limiting their trustworthiness in high-stakes clinical applications where interpretability is essential. Existing explainability techniques for GNNs are typically post-hoc and global, offering limited insight into individual node decisions or local reasoning. We introduce X-Node, a self-explaining GNN framework in which each node generates its own explanation as part of the prediction process. For every node, we construct a structured context vector encoding interpretable cues such as degree, centrality, clustering, feature saliency, and label agreement within its local topology. A lightweight Reasoner module maps this context into a compact explanation vector, which serves three purposes: (1) reconstructing the node's latent embedding via a decoder to enforce faithfulness, (2) generating a natural language explanation using a pre-trained LLM (e.g., Grok or Gemini), and (3) guiding the GNN itself via a "text-injection" mechanism that feeds explanations back into the message-passing pipeline. We evaluate X-Node on two graph datasets derived from MedMNIST and MorphoMNIST, integrating it with GCN, GAT, and GIN backbones. Our results show that X-Node maintains competitive classification accuracy while producing faithful, per-node explanations. Repository: https://github.com/basiralab/X-Node.
PDF62August 18, 2025