ChatPaper.aiChatPaper

X-Nodo: La Autoexplicación es Todo lo que Necesitamos

X-Node: Self-Explanation is All We Need

August 14, 2025
Autores: Prajit Sengupta, Islem Rekik
cs.AI

Resumen

Las redes neuronales de grafos (GNNs, por sus siglas en inglés) han logrado resultados de vanguardia en tareas de visión por computadora y clasificación de imágenes médicas al capturar dependencias estructurales entre instancias de datos. Sin embargo, su proceso de toma de decisiones sigue siendo en gran medida opaco, lo que limita su confiabilidad en aplicaciones clínicas de alto riesgo donde la interpretabilidad es esencial. Las técnicas de explicabilidad existentes para GNNs suelen ser post-hoc y globales, ofreciendo una visión limitada de las decisiones individuales de los nodos o del razonamiento local. Presentamos X-Node, un marco de GNN autoexplicable en el que cada nodo genera su propia explicación como parte del proceso de predicción. Para cada nodo, construimos un vector de contexto estructurado que codifica señales interpretables como el grado, la centralidad, la agrupación, la relevancia de las características y la concordancia de etiquetas dentro de su topología local. Un módulo ligero llamado Reasoner mapea este contexto en un vector de explicación compacto, que cumple tres propósitos: (1) reconstruir la representación latente del nodo mediante un decodificador para garantizar fidelidad, (2) generar una explicación en lenguaje natural utilizando un modelo de lenguaje preentrenado (por ejemplo, Grok o Gemini), y (3) guiar la propia GNN mediante un mecanismo de "inyección de texto" que retroalimenta las explicaciones en el proceso de paso de mensajes. Evaluamos X-Node en dos conjuntos de datos de grafos derivados de MedMNIST y MorphoMNIST, integrándolo con arquitecturas de GCN, GAT y GIN. Nuestros resultados muestran que X-Node mantiene una precisión competitiva en la clasificación mientras produce explicaciones fieles por nodo. Repositorio: https://github.com/basiralab/X-Node.
English
Graph neural networks (GNNs) have achieved state-of-the-art results in computer vision and medical image classification tasks by capturing structural dependencies across data instances. However, their decision-making remains largely opaque, limiting their trustworthiness in high-stakes clinical applications where interpretability is essential. Existing explainability techniques for GNNs are typically post-hoc and global, offering limited insight into individual node decisions or local reasoning. We introduce X-Node, a self-explaining GNN framework in which each node generates its own explanation as part of the prediction process. For every node, we construct a structured context vector encoding interpretable cues such as degree, centrality, clustering, feature saliency, and label agreement within its local topology. A lightweight Reasoner module maps this context into a compact explanation vector, which serves three purposes: (1) reconstructing the node's latent embedding via a decoder to enforce faithfulness, (2) generating a natural language explanation using a pre-trained LLM (e.g., Grok or Gemini), and (3) guiding the GNN itself via a "text-injection" mechanism that feeds explanations back into the message-passing pipeline. We evaluate X-Node on two graph datasets derived from MedMNIST and MorphoMNIST, integrating it with GCN, GAT, and GIN backbones. Our results show that X-Node maintains competitive classification accuracy while producing faithful, per-node explanations. Repository: https://github.com/basiralab/X-Node.
PDF62August 18, 2025