ChatPaper.aiChatPaper

X-Node: Autoexplicação é Tudo o que Precisamos

X-Node: Self-Explanation is All We Need

August 14, 2025
Autores: Prajit Sengupta, Islem Rekik
cs.AI

Resumo

Redes neurais em grafos (GNNs) alcançaram resultados de ponta em tarefas de visão computacional e classificação de imagens médicas ao capturar dependências estruturais entre instâncias de dados. No entanto, seu processo de tomada de decisão permanece amplamente opaco, limitando sua confiabilidade em aplicações clínicas de alto risco, onde a interpretabilidade é essencial. As técnicas de explicabilidade existentes para GNNs são tipicamente pós-hoc e globais, oferecendo insights limitados sobre decisões individuais de nós ou raciocínio local. Apresentamos o X-Node, uma estrutura de GNN autoexplicativa na qual cada nó gera sua própria explicação como parte do processo de predição. Para cada nó, construímos um vetor de contexto estruturado que codifica pistas interpretáveis, como grau, centralidade, agrupamento, saliência de características e concordância de rótulos dentro de sua topologia local. Um módulo leve chamado Reasoner mapeia esse contexto em um vetor de explicação compacto, que serve a três propósitos: (1) reconstruir a incorporação latente do nó por meio de um decodificador para garantir fidelidade, (2) gerar uma explicação em linguagem natural usando um LLM pré-treinado (por exemplo, Grok ou Gemini), e (3) guiar a própria GNN por meio de um mecanismo de "injeção de texto" que alimenta as explicações de volta no pipeline de passagem de mensagens. Avaliamos o X-Node em dois conjuntos de dados de grafos derivados do MedMNIST e MorphoMNIST, integrando-o com arquiteturas de GCN, GAT e GIN. Nossos resultados mostram que o X-Node mantém uma precisão competitiva na classificação enquanto produz explicações fiéis por nó. Repositório: https://github.com/basiralab/X-Node.
English
Graph neural networks (GNNs) have achieved state-of-the-art results in computer vision and medical image classification tasks by capturing structural dependencies across data instances. However, their decision-making remains largely opaque, limiting their trustworthiness in high-stakes clinical applications where interpretability is essential. Existing explainability techniques for GNNs are typically post-hoc and global, offering limited insight into individual node decisions or local reasoning. We introduce X-Node, a self-explaining GNN framework in which each node generates its own explanation as part of the prediction process. For every node, we construct a structured context vector encoding interpretable cues such as degree, centrality, clustering, feature saliency, and label agreement within its local topology. A lightweight Reasoner module maps this context into a compact explanation vector, which serves three purposes: (1) reconstructing the node's latent embedding via a decoder to enforce faithfulness, (2) generating a natural language explanation using a pre-trained LLM (e.g., Grok or Gemini), and (3) guiding the GNN itself via a "text-injection" mechanism that feeds explanations back into the message-passing pipeline. We evaluate X-Node on two graph datasets derived from MedMNIST and MorphoMNIST, integrating it with GCN, GAT, and GIN backbones. Our results show that X-Node maintains competitive classification accuracy while producing faithful, per-node explanations. Repository: https://github.com/basiralab/X-Node.
PDF82August 18, 2025