グラフ基盤モデル構築のためのマルチドメインリーマングラフ接着
Multi-Domain Riemannian Graph Gluing for Building Graph Foundation Models
February 28, 2026
著者: Li Sun, Zhenhao Huang, Silei Chen, Lanxu Yang, Junda Ye, Sen Su, Philip S. Yu
cs.AI
要旨
マルチドメイングラフ事前学習は、多様なドメインからの知識を統合して対象ドメインにおける性能を向上させる手法であり、グラフ基盤モデル構築において重要である。初期の成功にもかかわらず、既存手法は「知識がどのようにドメイン間で統合・転移されるか」という本質的問いに十分答えられていない。この理論的限界は、モデル事前学習とドメイン適応の間の一貫性と転移可能性を再考する動機となる。本論文では、リーマン幾何学の新たな視点を提案する。核心となる考え方は、任意のグラフデータセットを統一された滑らかなリーマン多様体へ統合し、知識統合と転移の体系的理解を可能にすることである。これを実現するため、我々の主要な貢献は神経多様体接着の理論的確立である。これは適応的正交フレームによる局所幾何の特徴付けに始まり、局所片を一貫した全体へ「接着」する。この理論に基づき、EMAプロトタイピングによるバッチ事前学習をサポートし、幾何的一貫性に基づく転移可能性指標を提供するGraphGlueフレームワークを提案する。大規模実験により、多様なグラフドメインにおける優れた性能を実証した。さらに、GraphGlueの幾何的スケーリング則を実証的に検証し、より多くのデータセットが滑らかな多様体を生成することでモデルの転移可能性を向上させることを示した。コードはhttps://github.com/RiemannGraph/GraphGlue で公開されている。
English
Multi-domain graph pre-training integrates knowledge from diverse domains to enhance performance in the target domains, which is crucial for building graph foundation models. Despite initial success, existing solutions often fall short of answering a fundamental question: how is knowledge integrated or transferred across domains? This theoretical limitation motivates us to rethink the consistency and transferability between model pre-training and domain adaptation. In this paper, we propose a fresh Riemannian geometry perspective, whose core idea is to merge any graph dataset into a unified, smooth Riemannian manifold, enabling a systematic understanding of knowledge integration and transfer. To achieve this, our key contribution is the theoretical establishment of neural manifold gluing, which first characterizes local geometry using an adaptive orthogonal frame and then "glues" the local pieces together into a coherent whole. Building on this theory, we present the GraphGlue framework, which supports batched pre-training with EMA prototyping and provides a transferability measure based on geometric consistence. Extensive experiments demonstrate its superior performance across diverse graph domains. Moreover, we empirically validated GraphGlue's geometric scaling law, showing that larger quantities of datasets improve model transferability by producing a smoother manifold. Codes are available at https://github.com/RiemannGraph/GraphGlue.