Осмысление траекторий: использование генерации видео для восстановления GPS-траекторий из сигналов сотовой связи
Think over Trajectories: Leveraging Video Generation to Reconstruct GPS Trajectories from Cellular Signaling
March 27, 2026
Авторы: Ruixing Zhang, Hanzhang Jiang, Leilei Sun, Liangzhe Han, Jibin Wang, Weifeng Lv
cs.AI
Аннотация
Мобильные устройства постоянно взаимодействуют с сотовыми базовыми станциями, генерируя огромные объемы сигнальных записей, которые обеспечивают широкое покрытие для понимания мобильности людей. Однако такие записи предоставляют лишь приблизительные данные о местоположении (например, идентификаторы обслуживающей соты) и, следовательно, ограничивают их прямое использование в приложениях, требующих высокоточных GPS-траекторий. В данной статье исследуется проблема Sig2GPS: восстановление GPS-траекторий по сотовой сигнализации. Вдохновляясь тем, что эксперты часто накладывают сигнальный след на карту и эскизируют соответствующий GPS-маршрут, в отличие от традиционных решений, основанных на сложных многоэтапных инженерных конвейерах или регрессии координат, Sig2GPS переосмысливается как задача генерации "изображение-в-видео", которая работает непосредственно в визуально-картографической области: сигнальные трассы визуализируются на карте, а модель генерации видео обучается рисовать непрерывный GPS-путь. Для поддержки этой парадигмы создан парный набор данных "сигнализация-траектория" в видеоформате для дообучения открытой видеомодели и представлен метод оптимизации на основе обучения с подкреплением с учетом траектории для повышения достоверности генерации с помощью вознаграждений. Эксперименты на крупномасштабных реальных наборах данных демонстрируют существенное улучшение по сравнению с сильными инженерными и обучающимися базовыми методами, в то время как дополнительные результаты по предсказанию следующей GPS-точки указывают на масштабируемость и межгородскую переносимость. В целом, эти результаты свидетельствуют о том, что картографически-визуальная генерация видео предоставляет практический интерфейс для анализа траекторных данных, позволяя напрямую генерировать и уточнять непрерывные пути с учетом картографических ограничений.
English
Mobile devices continuously interact with cellular base stations, generating massive volumes of signaling records that provide broad coverage for understanding human mobility. However, such records offer only coarse location cues (e.g., serving-cell identifiers) and therefore limit their direct use in applications that require high-precision GPS trajectories. This paper studies the Sig2GPS problem: reconstructing GPS trajectories from cellular signaling. Inspired by domain experts often lay the signaling trace on the map and sketch the corresponding GPS route, unlike conventional solutions that rely on complex multi-stage engineering pipelines or regress coordinates, Sig2GPS is reframed as an image-to-video generation task that directly operates in the map-visual domain: signaling traces are rendered on a map, and a video generation model is trained to draw a continuous GPS path. To support this paradigm, a paired signaling-to-trajectory video dataset is constructed to fine-tune an open-source video model, and a trajectory-aware reinforcement learning-based optimization method is introduced to improve generation fidelity via rewards. Experiments on large-scale real-world datasets show substantial improvements over strong engineered and learning-based baselines, while additional results on next GPS prediction indicate scalability and cross-city transferability. Overall, these results suggest that map-visual video generation provides a practical interface for trajectory data mining by enabling direct generation and refinement of continuous paths under map constraints.