ChatPaper.aiChatPaper

Преодоление изоляции данных: на пути к открытым и масштабируемым базовым моделям мобильности с использованием генеративного непрерывного обучения

Breaking Data Silos: Towards Open and Scalable Mobility Foundation Models via Generative Continual Learning

June 7, 2025
Авторы: Yuan Yuan, Yukun Liu, Chonghua Han, Jie Feng, Yong Li
cs.AI

Аннотация

Фундаментальные модели произвели революцию в таких областях, как обработка естественного языка и компьютерное зрение, обеспечивая универсальное обучение для разнообразных задач и наборов данных. Однако создание аналогичных моделей для анализа мобильности людей остается сложной задачей из-за конфиденциального характера данных о перемещениях и возникающих в результате информационных изолированных систем в различных организациях. Чтобы преодолеть этот разрыв, мы предлагаем MoveGCL — масштабируемую и обеспечивающую конфиденциальность платформу для обучения фундаментальных моделей мобильности с использованием генеративного непрерывного обучения. Без обмена исходными данными MoveGCL позволяет осуществлять децентрализованное и прогрессивное развитие моделей путем воспроизведения синтетических траекторий, сгенерированных замороженной моделью-учителем, и укрепляет сохранение знаний с помощью специализированной стратегии дистилляции, которая смягчает проблему катастрофического забывания. Для учета неоднородности паттернов мобильности MoveGCL включает трансформер с механизмом маршрутизации экспертов, учитывающим мобильность, и использует послойную стратегию прогрессивной адаптации для стабилизации непрерывных обновлений. Эксперименты на шести реальных городских наборах данных показывают, что MoveGCL достигает производительности, сопоставимой с совместным обучением, и значительно превосходит базовые методы федеративного обучения, обеспечивая при этом надежную защиту конфиденциальности. MoveGCL представляет собой важный шаг на пути к созданию фундаментальных моделей для анализа мобильности, предлагая практическую схему для открытой, масштабируемой и конфиденциальной разработки моделей в эпоху фундаментальных моделей.
English
Foundation models have revolutionized fields such as natural language processing and computer vision by enabling general-purpose learning across diverse tasks and datasets. However, building analogous models for human mobility remains challenging due to the privacy-sensitive nature of mobility data and the resulting data silos across institutions. To bridge this gap, we propose MoveGCL, a scalable and privacy-preserving framework for training mobility foundation models via generative continual learning. Without sharing raw data, MoveGCL enables decentralized and progressive model evolution by replaying synthetic trajectories generated from a frozen teacher model, and reinforces knowledge retention through a tailored distillation strategy that mitigates catastrophic forgetting. To address the heterogeneity of mobility patterns, MoveGCL incorporates a Mixture-of-Experts Transformer with a mobility-aware expert routing mechanism, and employs a layer-wise progressive adaptation strategy to stabilize continual updates. Experiments on six real-world urban datasets demonstrate that MoveGCL achieves performance comparable to joint training and significantly outperforms federated learning baselines, while offering strong privacy protection. MoveGCL marks a crucial step toward unlocking foundation models for mobility, offering a practical blueprint for open, scalable, and privacy-preserving model development in the era of foundation models.
PDF22June 13, 2025