ChatPaper.aiChatPaper

4DGS360 : Reconstruction gaussienne à 360° d'objets dynamiques à partir d'une seule vidéo

4DGS360: 360° Gaussian Reconstruction of Dynamic Objects from a Single Video

March 23, 2026
Auteurs: Jae Won Jang, Yeonjin Chang, Wonsik Shin, Juhwan Cho, Nojun Kwak
cs.AI

Résumé

Nous présentons 4DGS360, un cadre sans diffusion pour la reconstruction d'objets dynamiques à 360° à partir de vidéos monoculaires classiques. Les méthodes existantes échouent souvent à reconstruire une géométrie cohérente à 360°, car leur forte dépendance à des préconisations natives 2D amène les points initiaux à surajuster la surface visible dans chaque vue d'apprentissage. 4DGS360 résout ce défi grâce à une initialisation native 3D avancée qui atténue l'ambiguïté géométrique des régions occluses. Notre traqueur 3D proposé, AnchorTAP3D, produit des trajectoires de points 3D renforcées en exploitant des points de suivi 2D fiables comme ancres, supprimant la dérive et fournissant une initialisation fiable qui préserve la géométrie dans les régions occluses. Cette initialisation, combinée à une optimisation, produit des reconstructions 4D cohérentes à 360°. Nous présentons également iPhone360, un nouveau benchmark où les caméras de test sont placées jusqu'à 135° des vues d'apprentissage, permettant une évaluation à 360° que les ensembles de données existants ne peuvent pas fournir. Les expériences montrent que 4DGS360 atteint des performances de pointe sur les ensembles de données iPhone360, iPhone et DAVIS, à la fois qualitativement et quantitativement.
English
We introduce 4DGS360, a diffusion-free framework for 360^{circ} dynamic object reconstruction from casual monocular video. Existing methods often fail to reconstruct consistent 360^{circ} geometry, as their heavy reliance on 2D-native priors causes initial points to overfit to visible surface in each training view. 4DGS360 addresses this challenge through a advanced 3D-native initialization that mitigates the geometric ambiguity of occluded regions. Our proposed 3D tracker, AnchorTAP3D, produces reinforced 3D point trajectories by leveraging confident 2D track points as anchors, suppressing drift and providing reliable initialization that preserves geometry in occluded regions. This initialization, combined with optimization, yields coherent 360^{circ} 4D reconstructions. We further present iPhone360, a new benchmark where test cameras are placed up to 135^{circ} apart from training views, enabling 360^{circ} evaluation that existing datasets cannot provide. Experiments show that 4DGS360 achieves state-of-the-art performance on the iPhone360, iPhone, and DAVIS datasets, both qualitatively and quantitatively.
PDF91March 27, 2026