ChatPaper.aiChatPaper

Unión de Grafos Riemannianos Multidominio para la Construcción de Modelos Fundamentales de Grafos

Multi-Domain Riemannian Graph Gluing for Building Graph Foundation Models

February 28, 2026
Autores: Li Sun, Zhenhao Huang, Silei Chen, Lanxu Yang, Junda Ye, Sen Su, Philip S. Yu
cs.AI

Resumen

La preentrenamiento multidisciplinar de grafos integra conocimiento de diversos dominios para mejorar el rendimiento en los dominios objetivo, lo cual es crucial para construir modelos de base para grafos. A pesar del éxito inicial, las soluciones existentes a menudo no logran responder a una pregunta fundamental: ¿cómo se integra o transfiere el conocimiento entre dominios? Esta limitación teórica nos motiva a repensar la consistencia y transferibilidad entre el preentrenamiento del modelo y la adaptación de dominio. En este artículo, proponemos una nueva perspectiva de geometría riemanniana, cuya idea central es fusionar cualquier conjunto de datos de grafos en una variedad de Riemann unificada y suave, permitiendo una comprensión sistemática de la integración y transferencia de conocimiento. Para lograrlo, nuestra contribución clave es el establecimiento teórico del pegado de variedades neuronales, que primero caracteriza la geometría local utilizando un marco ortogonal adaptativo y luego "une" las piezas locales en un todo coherente. Sobre esta base teórica, presentamos el framework GraphGlue, que admite preentrenamiento por lotes con prototipado EMA y proporciona una medida de transferibilidad basada en la consistencia geométrica. Experimentos exhaustivos demuestran su rendimiento superior en diversos dominios de grafos. Además, validamos empíricamente la ley de escalamiento geométrico de GraphGlue, mostrando que mayores cantidades de conjuntos de datos mejoran la transferibilidad del modelo al producir una variedad más suave. Los códigos están disponibles en https://github.com/RiemannGraph/GraphGlue.
English
Multi-domain graph pre-training integrates knowledge from diverse domains to enhance performance in the target domains, which is crucial for building graph foundation models. Despite initial success, existing solutions often fall short of answering a fundamental question: how is knowledge integrated or transferred across domains? This theoretical limitation motivates us to rethink the consistency and transferability between model pre-training and domain adaptation. In this paper, we propose a fresh Riemannian geometry perspective, whose core idea is to merge any graph dataset into a unified, smooth Riemannian manifold, enabling a systematic understanding of knowledge integration and transfer. To achieve this, our key contribution is the theoretical establishment of neural manifold gluing, which first characterizes local geometry using an adaptive orthogonal frame and then "glues" the local pieces together into a coherent whole. Building on this theory, we present the GraphGlue framework, which supports batched pre-training with EMA prototyping and provides a transferability measure based on geometric consistence. Extensive experiments demonstrate its superior performance across diverse graph domains. Moreover, we empirically validated GraphGlue's geometric scaling law, showing that larger quantities of datasets improve model transferability by producing a smoother manifold. Codes are available at https://github.com/RiemannGraph/GraphGlue.
PDF02May 8, 2026