ChatPaper.aiChatPaper

Multi-Domein Riemanniaans Grafiekplakken voor de Bouw van Grafiekfundatiemodellen

Multi-Domain Riemannian Graph Gluing for Building Graph Foundation Models

February 28, 2026
Auteurs: Li Sun, Zhenhao Huang, Silei Chen, Lanxu Yang, Junda Ye, Sen Su, Philip S. Yu
cs.AI

Samenvatting

Multi-domein grafische voorafgaande training integreert kennis uit diverse domeinen om de prestaties in de doeldomeinen te verbeteren, wat cruciaal is voor het bouwen van grafische foundation-modellen. Ondanks aanvankelijk succes slagen bestaande oplossingen er vaak niet in een fundamentele vraag te beantwoorden: hoe wordt kennis geïntegreerd of overgedragen tussen domeinen? Deze theoretische beperking motiveert ons om de consistentie en overdraagbaarheid tussen modelvoortraining en domeinaanpassing opnieuw te overdenken. In dit artikel stellen we een nieuw Riemann-meetkundig perspectief voor, waarvan de kernidee is om elke grafische dataset te versmelten tot een verenigde, gladde Riemann-variëteit, wat een systematisch begrip van kennisintegratie en -overdracht mogelijk maakt. Om dit te bereiken is onze belangrijkste bijdrage de theoretische vaststelling van neural manifold gluing, dat eerst de lokale meetkunde karakteriseert met behulp van een adaptief orthogonaal frame en vervolgens de lokale stukken "aan elkaar lijmt" tot een coherent geheel. Op basis van deze theorie presenteren we het GraphGlue-framework, dat gebatchte voorafgaande training met EMA-prototyping ondersteunt en een overdraagbaarheidsmaatstaf biedt op basis van geometrische consistentie. Uitgebreide experimenten tonen de superieure prestaties aan in diverse grafische domeinen. Bovendien hebben we empirisch de geometrische schaalwet van GraphGlue gevalideerd, waaruit blijkt dat grotere hoeveelheden datasets de overdraagbaarheid van het model verbeteren door een gladdere variëteit te produceren. Code is beschikbaar op https://github.com/RiemannGraph/GraphGlue.
English
Multi-domain graph pre-training integrates knowledge from diverse domains to enhance performance in the target domains, which is crucial for building graph foundation models. Despite initial success, existing solutions often fall short of answering a fundamental question: how is knowledge integrated or transferred across domains? This theoretical limitation motivates us to rethink the consistency and transferability between model pre-training and domain adaptation. In this paper, we propose a fresh Riemannian geometry perspective, whose core idea is to merge any graph dataset into a unified, smooth Riemannian manifold, enabling a systematic understanding of knowledge integration and transfer. To achieve this, our key contribution is the theoretical establishment of neural manifold gluing, which first characterizes local geometry using an adaptive orthogonal frame and then "glues" the local pieces together into a coherent whole. Building on this theory, we present the GraphGlue framework, which supports batched pre-training with EMA prototyping and provides a transferability measure based on geometric consistence. Extensive experiments demonstrate its superior performance across diverse graph domains. Moreover, we empirically validated GraphGlue's geometric scaling law, showing that larger quantities of datasets improve model transferability by producing a smoother manifold. Codes are available at https://github.com/RiemannGraph/GraphGlue.
PDF02March 7, 2026