X-Node: 必要なのは自己説明のみ
X-Node: Self-Explanation is All We Need
August 14, 2025
著者: Prajit Sengupta, Islem Rekik
cs.AI
要旨
グラフニューラルネットワーク(GNN)は、データインスタンス間の構造的依存関係を捉えることで、コンピュータビジョンや医療画像分類タスクにおいて最先端の結果を達成してきました。しかし、その意思決定プロセスは依然として不透明であり、解釈可能性が不可欠な高リスクの臨床応用における信頼性を制限しています。既存のGNNの説明可能性技術は、通常、事後的なものであり、グローバルな視点に基づいており、個々のノードの決定や局所的な推論に関する洞察が限られています。本論文では、X-Nodeという自己説明型GNNフレームワークを紹介します。このフレームワークでは、各ノードが予測プロセスの一部として自身の説明を生成します。各ノードに対して、次数、中心性、クラスタリング、特徴の重要性、および局所的なトポロジー内でのラベル一致など、解釈可能な手がかりをエンコードした構造化されたコンテキストベクトルを構築します。軽量なReasonerモジュールは、このコンテキストをコンパクトな説明ベクトルにマッピングし、以下の3つの目的を果たします:(1)デコーダーを介してノードの潜在埋め込みを再構築し、忠実性を強化する、(2)事前学習済みのLLM(例:GrokやGemini)を使用して自然言語の説明を生成する、(3)説明をメッセージパッシングパイプラインにフィードバックする「テキストインジェクション」メカニズムを介してGNN自体をガイドする。X-Nodeを、MedMNISTとMorphoMNISTから派生した2つのグラフデータセットで評価し、GCN、GAT、GINのバックボーンと統合します。結果は、X-Nodeが競争力のある分類精度を維持しながら、忠実なノードごとの説明を生成することを示しています。リポジトリ:https://github.com/basiralab/X-Node。
English
Graph neural networks (GNNs) have achieved state-of-the-art results in
computer vision and medical image classification tasks by capturing structural
dependencies across data instances. However, their decision-making remains
largely opaque, limiting their trustworthiness in high-stakes clinical
applications where interpretability is essential. Existing explainability
techniques for GNNs are typically post-hoc and global, offering limited insight
into individual node decisions or local reasoning. We introduce X-Node, a
self-explaining GNN framework in which each node generates its own explanation
as part of the prediction process. For every node, we construct a structured
context vector encoding interpretable cues such as degree, centrality,
clustering, feature saliency, and label agreement within its local topology. A
lightweight Reasoner module maps this context into a compact explanation
vector, which serves three purposes: (1) reconstructing the node's latent
embedding via a decoder to enforce faithfulness, (2) generating a natural
language explanation using a pre-trained LLM (e.g., Grok or Gemini), and (3)
guiding the GNN itself via a "text-injection" mechanism that feeds explanations
back into the message-passing pipeline. We evaluate X-Node on two graph
datasets derived from MedMNIST and MorphoMNIST, integrating it with GCN, GAT,
and GIN backbones. Our results show that X-Node maintains competitive
classification accuracy while producing faithful, per-node explanations.
Repository: https://github.com/basiralab/X-Node.