4DGS360: 360° Gaussiaanse Reconstructie van Dynamische Objecten vanuit een Enkele Video
4DGS360: 360° Gaussian Reconstruction of Dynamic Objects from a Single Video
March 23, 2026
Auteurs: Jae Won Jang, Yeonjin Chang, Wonsik Shin, Juhwan Cho, Nojun Kwak
cs.AI
Samenvatting
Wij introduceren 4DGS360, een diffusievrij raamwerk voor 360°-reconstructie van dynamische objecten uit monovideo's van willekeurige kwaliteit. Bestaande methoden slagen er vaak niet in om een consistente 360°-geometrie te reconstrueren, omdat hun sterke afhankelijkheid van 2D-inherente prioren ervoor zorgt dat initiële punten overfitten op het zichtbare oppervlak in elke trainingsweergave. 4DGS360 lost deze uitdaging op door een geavanceerde 3D-inherente initialisatie die de geometrische ambiguïteit van verborgen regio's vermindert. Onze voorgestelde 3D-tracker, AnchorTAP3D, produceert versterkte 3D-punttrajectorieën door gebruik te maken van betrouwbare 2D-volgpunten als ankers, waardoor drift wordt onderdrukt en een betrouwbare initialisatie wordt geboden die de geometrie in verborgen regio's behoudt. Deze initialisatie, gecombineerd met optimalisatie, resulteert in samenhangende 360° 4D-reconstructies. Verder presenteren wij iPhone360, een nieuwe benchmark waarbij testcamera's tot 135° van de trainingsweergaven worden geplaatst, wat een 360°-evaluatie mogelijk maakt die bestaande datasets niet kunnen bieden. Experimenten tonen aan dat 4DGS360 state-of-the-art prestaties bereikt op de iPhone360-, iPhone- en DAVIS-datasets, zowel kwalitatief als kwantitatief.
English
We introduce 4DGS360, a diffusion-free framework for 360^{circ} dynamic object reconstruction from casual monocular video. Existing methods often fail to reconstruct consistent 360^{circ} geometry, as their heavy reliance on 2D-native priors causes initial points to overfit to visible surface in each training view. 4DGS360 addresses this challenge through a advanced 3D-native initialization that mitigates the geometric ambiguity of occluded regions. Our proposed 3D tracker, AnchorTAP3D, produces reinforced 3D point trajectories by leveraging confident 2D track points as anchors, suppressing drift and providing reliable initialization that preserves geometry in occluded regions. This initialization, combined with optimization, yields coherent 360^{circ} 4D reconstructions. We further present iPhone360, a new benchmark where test cameras are placed up to 135^{circ} apart from training views, enabling 360^{circ} evaluation that existing datasets cannot provide. Experiments show that 4DGS360 achieves state-of-the-art performance on the iPhone360, iPhone, and DAVIS datasets, both qualitatively and quantitatively.