Pensando en Trayectorias: Aprovechando la Generación de Video para Reconstruir Trayectorias GPS a partir de Señalización Celular
Think over Trajectories: Leveraging Video Generation to Reconstruct GPS Trajectories from Cellular Signaling
March 27, 2026
Autores: Ruixing Zhang, Hanzhang Jiang, Leilei Sun, Liangzhe Han, Jibin Wang, Weifeng Lv
cs.AI
Resumen
Los dispositivos móviles interactúan continuamente con las estaciones base celulares, generando volúmenes masivos de registros de señalización que proporcionan una amplia cobertura para comprender la movilidad humana. Sin embargo, dichos registros ofrecen solo indicaciones de ubicación aproximadas (por ejemplo, identificadores de celda de servicio) y, por lo tanto, limitan su uso directo en aplicaciones que requieren trayectorias GPS de alta precisión. Este artículo estudia el problema Sig2GPS: reconstruir trayectorias GPS a partir de la señalización celular. Inspirado por cómo los expertos en el dominio a menudo superponen la traza de señalización en el mapa y bosquejan la ruta GPS correspondiente, a diferencia de las soluciones convencionales que dependen de complejas canalizaciones de ingeniería de múltiples etapas o de la regresión de coordenadas, Sig2GPS se replantea como una tarea de generación de imagen a video que opera directamente en el dominio visual del mapa: las trazas de señalización se representan en un mapa, y se entrena un modelo de generación de video para dibujar una ruta GPS continua. Para respaldar este paradigma, se construye un conjunto de datos emparejado de video de señalización a trayectoria para ajustar un modelo de video de código abierto, y se introduce un método de optimización basado en aprendizaje por refuerzo con conciencia de la trayectoria para mejorar la fidelidad de la generación mediante recompensas. Los experimentos en conjuntos de datos del mundo real a gran escala muestran mejoras sustanciales respecto a líneas base sólidas, tanto de ingeniería como basadas en aprendizaje, mientras que resultados adicionales sobre la predicción del siguiente GPS indican escalabilidad y transferibilidad entre ciudades. En general, estos resultados sugieren que la generación de video en el dominio visual del mapa proporciona una interfaz práctica para la minería de datos de trayectoria al permitir la generación y el refinamiento directos de rutas continuas bajo restricciones del mapa.
English
Mobile devices continuously interact with cellular base stations, generating massive volumes of signaling records that provide broad coverage for understanding human mobility. However, such records offer only coarse location cues (e.g., serving-cell identifiers) and therefore limit their direct use in applications that require high-precision GPS trajectories. This paper studies the Sig2GPS problem: reconstructing GPS trajectories from cellular signaling. Inspired by domain experts often lay the signaling trace on the map and sketch the corresponding GPS route, unlike conventional solutions that rely on complex multi-stage engineering pipelines or regress coordinates, Sig2GPS is reframed as an image-to-video generation task that directly operates in the map-visual domain: signaling traces are rendered on a map, and a video generation model is trained to draw a continuous GPS path. To support this paradigm, a paired signaling-to-trajectory video dataset is constructed to fine-tune an open-source video model, and a trajectory-aware reinforcement learning-based optimization method is introduced to improve generation fidelity via rewards. Experiments on large-scale real-world datasets show substantial improvements over strong engineered and learning-based baselines, while additional results on next GPS prediction indicate scalability and cross-city transferability. Overall, these results suggest that map-visual video generation provides a practical interface for trajectory data mining by enabling direct generation and refinement of continuous paths under map constraints.