ChatPaper.aiChatPaper

4DGS360: Reconstrução Gaussiana 360° de Objetos Dinâmicos a Partir de um Único Vídeo

4DGS360: 360° Gaussian Reconstruction of Dynamic Objects from a Single Video

March 23, 2026
Autores: Jae Won Jang, Yeonjin Chang, Wonsik Shin, Juhwan Cho, Nojun Kwak
cs.AI

Resumo

Apresentamos o 4DGS360, uma estrutura livre de difusão para reconstrução dinâmica de objetos em 360° a partir de vídeo monocular casual. Os métodos existentes frequentemente falham em reconstruir uma geometria consistente de 360°, pois sua forte dependência de *priors* nativos 2D faz com que os pontos iniciais se ajustem excessivamente à superfície visível em cada vista de treinamento. O 4DGS360 aborda este desafio por meio de uma inicialização avançada nativa 3D que mitiga a ambiguidade geométrica das regiões ocluídas. Nosso rastreador 3D proposto, o AnchorTAP3D, produz trajetórias de pontos 3D reforçadas aproveitando pontos de rastreamento 2D confiáveis como âncoras, suprimindo a deriva e fornecendo uma inicialização confiável que preserva a geometria nas regiões ocluídas. Esta inicialização, combinada com a otimização, resulta em reconstruções 4D coerentes de 360°. Apresentamos ainda o iPhone360, um novo *benchmark* no qual as câmeras de teste são posicionadas até 135° de distância das vistas de treinamento, permitindo uma avaliação de 360° que os conjuntos de dados existentes não podem fornecer. Os experimentos mostram que o 4DGS360 alcança um desempenho de ponta nos conjuntos de dados iPhone360, iPhone e DAVIS, tanto qualitativa quanto quantitativamente.
English
We introduce 4DGS360, a diffusion-free framework for 360^{circ} dynamic object reconstruction from casual monocular video. Existing methods often fail to reconstruct consistent 360^{circ} geometry, as their heavy reliance on 2D-native priors causes initial points to overfit to visible surface in each training view. 4DGS360 addresses this challenge through a advanced 3D-native initialization that mitigates the geometric ambiguity of occluded regions. Our proposed 3D tracker, AnchorTAP3D, produces reinforced 3D point trajectories by leveraging confident 2D track points as anchors, suppressing drift and providing reliable initialization that preserves geometry in occluded regions. This initialization, combined with optimization, yields coherent 360^{circ} 4D reconstructions. We further present iPhone360, a new benchmark where test cameras are placed up to 135^{circ} apart from training views, enabling 360^{circ} evaluation that existing datasets cannot provide. Experiments show that 4DGS360 achieves state-of-the-art performance on the iPhone360, iPhone, and DAVIS datasets, both qualitatively and quantitatively.
PDF91March 27, 2026