X-Nodo: La Autoexplicación es Todo lo que Necesitamos
X-Node: Self-Explanation is All We Need
August 14, 2025
Autores: Prajit Sengupta, Islem Rekik
cs.AI
Resumen
Las redes neuronales de grafos (GNNs, por sus siglas en inglés) han logrado resultados de vanguardia en tareas de visión por computadora y clasificación de imágenes médicas al capturar dependencias estructurales entre instancias de datos. Sin embargo, su proceso de toma de decisiones sigue siendo en gran medida opaco, lo que limita su confiabilidad en aplicaciones clínicas de alto riesgo donde la interpretabilidad es esencial. Las técnicas de explicabilidad existentes para GNNs suelen ser post-hoc y globales, ofreciendo una visión limitada de las decisiones individuales de los nodos o del razonamiento local. Presentamos X-Node, un marco de GNN autoexplicable en el que cada nodo genera su propia explicación como parte del proceso de predicción. Para cada nodo, construimos un vector de contexto estructurado que codifica señales interpretables como el grado, la centralidad, la agrupación, la relevancia de las características y la concordancia de etiquetas dentro de su topología local. Un módulo ligero llamado Reasoner mapea este contexto en un vector de explicación compacto, que cumple tres propósitos: (1) reconstruir la representación latente del nodo mediante un decodificador para garantizar fidelidad, (2) generar una explicación en lenguaje natural utilizando un modelo de lenguaje preentrenado (por ejemplo, Grok o Gemini), y (3) guiar la propia GNN mediante un mecanismo de "inyección de texto" que retroalimenta las explicaciones en el proceso de paso de mensajes. Evaluamos X-Node en dos conjuntos de datos de grafos derivados de MedMNIST y MorphoMNIST, integrándolo con arquitecturas de GCN, GAT y GIN. Nuestros resultados muestran que X-Node mantiene una precisión competitiva en la clasificación mientras produce explicaciones fieles por nodo. Repositorio: https://github.com/basiralab/X-Node.
English
Graph neural networks (GNNs) have achieved state-of-the-art results in
computer vision and medical image classification tasks by capturing structural
dependencies across data instances. However, their decision-making remains
largely opaque, limiting their trustworthiness in high-stakes clinical
applications where interpretability is essential. Existing explainability
techniques for GNNs are typically post-hoc and global, offering limited insight
into individual node decisions or local reasoning. We introduce X-Node, a
self-explaining GNN framework in which each node generates its own explanation
as part of the prediction process. For every node, we construct a structured
context vector encoding interpretable cues such as degree, centrality,
clustering, feature saliency, and label agreement within its local topology. A
lightweight Reasoner module maps this context into a compact explanation
vector, which serves three purposes: (1) reconstructing the node's latent
embedding via a decoder to enforce faithfulness, (2) generating a natural
language explanation using a pre-trained LLM (e.g., Grok or Gemini), and (3)
guiding the GNN itself via a "text-injection" mechanism that feeds explanations
back into the message-passing pipeline. We evaluate X-Node on two graph
datasets derived from MedMNIST and MorphoMNIST, integrating it with GCN, GAT,
and GIN backbones. Our results show that X-Node maintains competitive
classification accuracy while producing faithful, per-node explanations.
Repository: https://github.com/basiralab/X-Node.