ChatPaper.aiChatPaper

Dateninseln überwinden: Auf dem Weg zu offenen und skalierbaren Mobilitäts-Foundation-Modellen durch generatives kontinuierliches Lernen

Breaking Data Silos: Towards Open and Scalable Mobility Foundation Models via Generative Continual Learning

June 7, 2025
Autoren: Yuan Yuan, Yukun Liu, Chonghua Han, Jie Feng, Yong Li
cs.AI

Zusammenfassung

Foundation Models haben Bereiche wie die natürliche Sprachverarbeitung und Computer Vision revolutioniert, indem sie allgemeingültiges Lernen über verschiedene Aufgaben und Datensätze hinweg ermöglichen. Die Entwicklung analoger Modelle für die menschliche Mobilität bleibt jedoch aufgrund der sensiblen Natur von Mobilitätsdaten und der daraus resultierenden Datensilos zwischen Institutionen eine Herausforderung. Um diese Lücke zu schließen, schlagen wir MoveGCL vor, ein skalierbares und datenschutzfreundliches Framework für das Training von Mobilitäts-Foundation-Modellen durch generatives kontinuierliches Lernen. Ohne Rohdaten zu teilen, ermöglicht MoveGCL eine dezentrale und progressive Modellentwicklung, indem synthetische Trajektorien, die von einem eingefrorenen Lehrer-Modell generiert werden, wiedergegeben werden. Es stärkt die Wissensbewahrung durch eine maßgeschneiderte Destillationsstrategie, die katastrophales Vergessen verhindert. Um die Heterogenität von Mobilitätsmustern zu berücksichtigen, integriert MoveGCL einen Mixture-of-Experts-Transformer mit einem mobilitätsbewussten Expert-Routing-Mechanismus und verwendet eine schrittweise Anpassungsstrategie auf Ebene der Schichten, um kontinuierliche Updates zu stabilisieren. Experimente mit sechs realen urbanen Datensätzen zeigen, dass MoveGCL eine Leistung erzielt, die mit gemeinsamem Training vergleichbar ist und federierte Lernbaselines deutlich übertrifft, während es gleichzeitig starken Datenschutz bietet. MoveGCL markiert einen entscheidenden Schritt hin zur Erschließung von Foundation-Modellen für die Mobilität und bietet einen praktischen Leitfaden für offene, skalierbare und datenschutzfreundliche Modellentwicklung im Zeitalter der Foundation-Modelle.
English
Foundation models have revolutionized fields such as natural language processing and computer vision by enabling general-purpose learning across diverse tasks and datasets. However, building analogous models for human mobility remains challenging due to the privacy-sensitive nature of mobility data and the resulting data silos across institutions. To bridge this gap, we propose MoveGCL, a scalable and privacy-preserving framework for training mobility foundation models via generative continual learning. Without sharing raw data, MoveGCL enables decentralized and progressive model evolution by replaying synthetic trajectories generated from a frozen teacher model, and reinforces knowledge retention through a tailored distillation strategy that mitigates catastrophic forgetting. To address the heterogeneity of mobility patterns, MoveGCL incorporates a Mixture-of-Experts Transformer with a mobility-aware expert routing mechanism, and employs a layer-wise progressive adaptation strategy to stabilize continual updates. Experiments on six real-world urban datasets demonstrate that MoveGCL achieves performance comparable to joint training and significantly outperforms federated learning baselines, while offering strong privacy protection. MoveGCL marks a crucial step toward unlocking foundation models for mobility, offering a practical blueprint for open, scalable, and privacy-preserving model development in the era of foundation models.
PDF22June 13, 2025