Durchdenken von Trajektorien: Nutzung von Videogenerierung zur Rekonstruktion von GPS-Trajektorien aus Mobilfunksignalen
Think over Trajectories: Leveraging Video Generation to Reconstruct GPS Trajectories from Cellular Signaling
March 27, 2026
Autoren: Ruixing Zhang, Hanzhang Jiang, Leilei Sun, Liangzhe Han, Jibin Wang, Weifeng Lv
cs.AI
Zusammenfassung
Mobile Endgeräte interagieren kontinuierlich mit Mobilfunk-Basisstationen und erzeugen dabei riesige Mengen an Signalisierungsdatensätzen, die eine breite Abdeckung für das Verständnis menschlicher Mobilität bieten. Allerdings liefern diese Datensätze nur grobe Positionshinweise (z.B. Kennungen der versorgenden Zelle) und schränken daher ihre direkte Nutzung in Anwendungen ein, die hochpräzise GPS-Trajektorien erfordern. Diese Arbeit untersucht das Sig2GPS-Problem: die Rekonstruktion von GPS-Trajektorien aus Mobilfunk-Signalisierungsdaten. Inspiriert davon, dass Domänenexperten häufig die Signalisierungsspur auf der Karte auslegen und die entsprechende GPS-Route skizzieren, wird Sig2GPS – anders als konventionelle Lösungen, die auf komplexe mehrstufige Engineering-Pipelines setzen oder Koordinaten regressieren – als Bild-zu-Video-Generierungsaufgabe neu definiert, die direkt im kartenvisuellen Bereich operiert: Signalisierungsspuren werden auf einer Karte dargestellt, und ein Video-Generierungsmodell wird trainiert, um einen kontinuierlichen GPS-Pfad zu zeichnen. Um dieses Paradigma zu unterstützen, wird ein gepaarter Signalisierungs-zu-Trajektorie-Videodatensatz erstellt, um ein Open-Source-Videomodell feinabzustimmen, und eine trajektorienbewusste, reinforcement-learning-basierte Optimierungsmethode eingeführt, um die Generierungstreue durch Belohnungen zu verbessern. Experimente mit umfangreichen realen Datensätzen zeigen substantielle Verbesserungen gegenüber starken engineering- und lernbasierten Baseline-Methoden, während zusätzliche Ergebnisse zur nächsten GPS-Vorhersage Skalierbarkeit und stadtübergreifende Übertragbarkeit belegen. Insgesamt deuten diese Ergebnisse darauf hin, dass kartenvisuelle Videogenerierung eine praktische Schnittstelle für Trajektorien-Datamining bietet, indem sie die direkte Generierung und Verfeinerung kontinuierlicher Pfade unter Kartenbedingungen ermöglicht.
English
Mobile devices continuously interact with cellular base stations, generating massive volumes of signaling records that provide broad coverage for understanding human mobility. However, such records offer only coarse location cues (e.g., serving-cell identifiers) and therefore limit their direct use in applications that require high-precision GPS trajectories. This paper studies the Sig2GPS problem: reconstructing GPS trajectories from cellular signaling. Inspired by domain experts often lay the signaling trace on the map and sketch the corresponding GPS route, unlike conventional solutions that rely on complex multi-stage engineering pipelines or regress coordinates, Sig2GPS is reframed as an image-to-video generation task that directly operates in the map-visual domain: signaling traces are rendered on a map, and a video generation model is trained to draw a continuous GPS path. To support this paradigm, a paired signaling-to-trajectory video dataset is constructed to fine-tune an open-source video model, and a trajectory-aware reinforcement learning-based optimization method is introduced to improve generation fidelity via rewards. Experiments on large-scale real-world datasets show substantial improvements over strong engineered and learning-based baselines, while additional results on next GPS prediction indicate scalability and cross-city transferability. Overall, these results suggest that map-visual video generation provides a practical interface for trajectory data mining by enabling direct generation and refinement of continuous paths under map constraints.