X-Node: 우리에게 필요한 것은 자기 설명뿐이다
X-Node: Self-Explanation is All We Need
August 14, 2025
저자: Prajit Sengupta, Islem Rekik
cs.AI
초록
그래프 신경망(GNN)은 데이터 인스턴스 간의 구조적 의존성을 포착함으로써 컴퓨터 비전 및 의료 영상 분류 작업에서 최첨단 성과를 달성했습니다. 그러나 GNN의 의사결정 과정은 여전히 불투명하여, 해석 가능성이 필수적인 고위험 임상 응용 분야에서의 신뢰성을 제한하고 있습니다. 기존의 GNN 설명 가능성 기법은 일반적으로 사후적이고 전역적이어서, 개별 노드의 결정이나 지역적 추론에 대한 통찰을 제한적으로 제공합니다. 우리는 X-Node를 소개합니다. 이는 각 노드가 예측 과정의 일부로 자체 설명을 생성하는 자기 설명형 GNN 프레임워크입니다. 각 노드에 대해, 우리는 해당 노드의 지역적 토폴로지 내에서 해석 가능한 단서(예: 연결성, 중심성, 클러스터링, 특징 중요도, 레이블 일치성)를 인코딩하는 구조화된 컨텍스트 벡터를 구성합니다. 경량화된 Reasoner 모듈은 이 컨텍스트를 간결한 설명 벡터로 매핑하며, 이 벡터는 세 가지 목적을 제공합니다: (1) 노드의 잠재 임베딩을 디코더를 통해 재구성하여 충실성을 강화, (2) 사전 훈련된 대형 언어 모델(예: Grok 또는 Gemini)을 사용하여 자연어 설명 생성, (3) 설명을 메시지 전달 파이프라인에 다시 주입하는 "텍스트 주입" 메커니즘을 통해 GNN 자체를 안내. 우리는 X-Node를 MedMNIST와 MorphoMNIST에서 파생된 두 개의 그래프 데이터셋에서 평가하며, 이를 GCN, GAT, GIN 백본과 통합했습니다. 우리의 결과는 X-Node가 경쟁력 있는 분류 정확도를 유지하면서도 충실한 노드별 설명을 생성함을 보여줍니다. 저장소: https://github.com/basiralab/X-Node.
English
Graph neural networks (GNNs) have achieved state-of-the-art results in
computer vision and medical image classification tasks by capturing structural
dependencies across data instances. However, their decision-making remains
largely opaque, limiting their trustworthiness in high-stakes clinical
applications where interpretability is essential. Existing explainability
techniques for GNNs are typically post-hoc and global, offering limited insight
into individual node decisions or local reasoning. We introduce X-Node, a
self-explaining GNN framework in which each node generates its own explanation
as part of the prediction process. For every node, we construct a structured
context vector encoding interpretable cues such as degree, centrality,
clustering, feature saliency, and label agreement within its local topology. A
lightweight Reasoner module maps this context into a compact explanation
vector, which serves three purposes: (1) reconstructing the node's latent
embedding via a decoder to enforce faithfulness, (2) generating a natural
language explanation using a pre-trained LLM (e.g., Grok or Gemini), and (3)
guiding the GNN itself via a "text-injection" mechanism that feeds explanations
back into the message-passing pipeline. We evaluate X-Node on two graph
datasets derived from MedMNIST and MorphoMNIST, integrating it with GCN, GAT,
and GIN backbones. Our results show that X-Node maintains competitive
classification accuracy while producing faithful, per-node explanations.
Repository: https://github.com/basiralab/X-Node.