X-Node: Autoexplicação é Tudo o que Precisamos
X-Node: Self-Explanation is All We Need
August 14, 2025
Autores: Prajit Sengupta, Islem Rekik
cs.AI
Resumo
Redes neurais em grafos (GNNs) alcançaram resultados de ponta em tarefas de visão computacional e classificação de imagens médicas ao capturar dependências estruturais entre instâncias de dados. No entanto, seu processo de tomada de decisão permanece amplamente opaco, limitando sua confiabilidade em aplicações clínicas de alto risco, onde a interpretabilidade é essencial. As técnicas de explicabilidade existentes para GNNs são tipicamente pós-hoc e globais, oferecendo insights limitados sobre decisões individuais de nós ou raciocínio local. Apresentamos o X-Node, uma estrutura de GNN autoexplicativa na qual cada nó gera sua própria explicação como parte do processo de predição. Para cada nó, construímos um vetor de contexto estruturado que codifica pistas interpretáveis, como grau, centralidade, agrupamento, saliência de características e concordância de rótulos dentro de sua topologia local. Um módulo leve chamado Reasoner mapeia esse contexto em um vetor de explicação compacto, que serve a três propósitos: (1) reconstruir a incorporação latente do nó por meio de um decodificador para garantir fidelidade, (2) gerar uma explicação em linguagem natural usando um LLM pré-treinado (por exemplo, Grok ou Gemini), e (3) guiar a própria GNN por meio de um mecanismo de "injeção de texto" que alimenta as explicações de volta no pipeline de passagem de mensagens. Avaliamos o X-Node em dois conjuntos de dados de grafos derivados do MedMNIST e MorphoMNIST, integrando-o com arquiteturas de GCN, GAT e GIN. Nossos resultados mostram que o X-Node mantém uma precisão competitiva na classificação enquanto produz explicações fiéis por nó. Repositório: https://github.com/basiralab/X-Node.
English
Graph neural networks (GNNs) have achieved state-of-the-art results in
computer vision and medical image classification tasks by capturing structural
dependencies across data instances. However, their decision-making remains
largely opaque, limiting their trustworthiness in high-stakes clinical
applications where interpretability is essential. Existing explainability
techniques for GNNs are typically post-hoc and global, offering limited insight
into individual node decisions or local reasoning. We introduce X-Node, a
self-explaining GNN framework in which each node generates its own explanation
as part of the prediction process. For every node, we construct a structured
context vector encoding interpretable cues such as degree, centrality,
clustering, feature saliency, and label agreement within its local topology. A
lightweight Reasoner module maps this context into a compact explanation
vector, which serves three purposes: (1) reconstructing the node's latent
embedding via a decoder to enforce faithfulness, (2) generating a natural
language explanation using a pre-trained LLM (e.g., Grok or Gemini), and (3)
guiding the GNN itself via a "text-injection" mechanism that feeds explanations
back into the message-passing pipeline. We evaluate X-Node on two graph
datasets derived from MedMNIST and MorphoMNIST, integrating it with GCN, GAT,
and GIN backbones. Our results show that X-Node maintains competitive
classification accuracy while producing faithful, per-node explanations.
Repository: https://github.com/basiralab/X-Node.