ChatPaper.aiChatPaper

Réflexion sur les Trajectoires : Exploiter la Génération Vidéo pour Reconstruire les Trajectories GPS à partir des Signaux Cellulaires

Think over Trajectories: Leveraging Video Generation to Reconstruct GPS Trajectories from Cellular Signaling

March 27, 2026
Auteurs: Ruixing Zhang, Hanzhang Jiang, Leilei Sun, Liangzhe Han, Jibin Wang, Weifeng Lv
cs.AI

Résumé

Les appareils mobiles interagissent continuellement avec les stations de base cellulaires, générant d'énormes volumes d'enregistrements de signalisation qui offrent une couverture étendue pour comprendre la mobilité humaine. Cependant, ces enregistrements ne fournissent que des indices de localisation grossiers (par exemple, les identifiants de cellule desservante) et limitent donc leur utilisation directe dans les applications nécessitant des trajectoires GPS de haute précision. Cet article étudie le problème Sig2GPS : la reconstruction de trajectoires GPS à partir de la signalisation cellulaire. S'inspirant du fait que les experts du domaine superposent souvent la trace de signalisation sur une carte et esquissent l'itinéraire GPS correspondant, contrairement aux solutions conventionnelles qui reposent sur des pipelines d'ingénierie multi-étapes complexes ou sur la régression de coordonnées, Sig2GPS est reformulé comme une tâche de génération image-à-vidéo opérant directement dans le domaine visuel cartographique : les traces de signalisation sont rendues sur une carte, et un modèle de génération vidéo est entraîné pour tracer un chemin GPS continu. Pour soutenir ce paradigme, un jeu de données vidéo apparié signalisation-trajectoire est construit pour affiner un modèle vidéo open-source, et une méthode d'optimisation par renforcement tenant compte de la trajectoire est introduite pour améliorer la fidélité de la génération via des récompenses. Les expériences sur des jeux de données réalistes à grande échelle montrent des améliorations substantielles par rapport à des bases de référence solides, qu'elles soient issues de l'ingénierie ou de l'apprentissage automatique, tandis que des résultats supplémentaires sur la prédiction du prochain GPS indiquent une évolutivité et une transférabilité inter-villes. Globalement, ces résultats suggèrent que la génération vidéo cartovisuelle offre une interface pratique pour l'exploration des données de trajectoire en permettant la génération directe et l'affinement de chemins continus sous contraintes cartographiques.
English
Mobile devices continuously interact with cellular base stations, generating massive volumes of signaling records that provide broad coverage for understanding human mobility. However, such records offer only coarse location cues (e.g., serving-cell identifiers) and therefore limit their direct use in applications that require high-precision GPS trajectories. This paper studies the Sig2GPS problem: reconstructing GPS trajectories from cellular signaling. Inspired by domain experts often lay the signaling trace on the map and sketch the corresponding GPS route, unlike conventional solutions that rely on complex multi-stage engineering pipelines or regress coordinates, Sig2GPS is reframed as an image-to-video generation task that directly operates in the map-visual domain: signaling traces are rendered on a map, and a video generation model is trained to draw a continuous GPS path. To support this paradigm, a paired signaling-to-trajectory video dataset is constructed to fine-tune an open-source video model, and a trajectory-aware reinforcement learning-based optimization method is introduced to improve generation fidelity via rewards. Experiments on large-scale real-world datasets show substantial improvements over strong engineered and learning-based baselines, while additional results on next GPS prediction indicate scalability and cross-city transferability. Overall, these results suggest that map-visual video generation provides a practical interface for trajectory data mining by enabling direct generation and refinement of continuous paths under map constraints.
PDF31April 1, 2026