ChatPaper.aiChatPaper

4DGS360: Reconstrucción Gaussiana en 360° de Objetos Dinámicos a partir de un Único Video

4DGS360: 360° Gaussian Reconstruction of Dynamic Objects from a Single Video

March 23, 2026
Autores: Jae Won Jang, Yeonjin Chang, Wonsik Shin, Juhwan Cho, Nojun Kwak
cs.AI

Resumen

Presentamos 4DGS360, un marco libre de difusión para la reconstrucción dinámica de objetos en 360° a partir de vídeo monocular casual. Los métodos existentes a menudo fallan al reconstruir una geometría consistente de 360°, ya que su fuerte dependencia de priores nativos 2D hace que los puntos iniciales se sobreajusten a la superficie visible en cada vista de entrenamiento. 4DGS360 aborda este desafío mediante una inicialización avanzada nativa 3D que mitiga la ambigüedad geométrica de las regiones ocluidas. Nuestro rastreador 3D propuesto, AnchorTAP3D, genera trayectorias de puntos 3D reforzadas aprovechando puntos de seguimiento 2D confiables como anclajes, suprimiendo la deriva y proporcionando una inicialización fiable que preserva la geometría en las regiones ocluidas. Esta inicialización, combinada con la optimización, produce reconstrucciones 4D coherentes de 360°. Además, presentamos iPhone360, un nuevo benchmark donde las cámaras de prueba se sitúan hasta 135° apartadas de las vistas de entrenamiento, permitiendo una evaluación de 360° que los conjuntos de datos existentes no pueden proporcionar. Los experimentos muestran que 4DGS360 alcanza un rendimiento state-of-the-art en los conjuntos de datos iPhone360, iPhone y DAVIS, tanto cualitativa como cuantitativamente.
English
We introduce 4DGS360, a diffusion-free framework for 360^{circ} dynamic object reconstruction from casual monocular video. Existing methods often fail to reconstruct consistent 360^{circ} geometry, as their heavy reliance on 2D-native priors causes initial points to overfit to visible surface in each training view. 4DGS360 addresses this challenge through a advanced 3D-native initialization that mitigates the geometric ambiguity of occluded regions. Our proposed 3D tracker, AnchorTAP3D, produces reinforced 3D point trajectories by leveraging confident 2D track points as anchors, suppressing drift and providing reliable initialization that preserves geometry in occluded regions. This initialization, combined with optimization, yields coherent 360^{circ} 4D reconstructions. We further present iPhone360, a new benchmark where test cameras are placed up to 135^{circ} apart from training views, enabling 360^{circ} evaluation that existing datasets cannot provide. Experiments show that 4DGS360 achieves state-of-the-art performance on the iPhone360, iPhone, and DAVIS datasets, both qualitatively and quantitatively.
PDF91March 27, 2026