4DGS360: 360-градусная гауссова реконструкция динамических объектов по одному видео
4DGS360: 360° Gaussian Reconstruction of Dynamic Objects from a Single Video
March 23, 2026
Авторы: Jae Won Jang, Yeonjin Chang, Wonsik Shin, Juhwan Cho, Nojun Kwak
cs.AI
Аннотация
Мы представляем 4DGS360 — метод реконструкции динамических объектов в 360° из обычного моноскопического видео, не использующий диффузионные модели. Существующие подходы часто не позволяют получить согласованную 360° геометрию, поскольку их сильная зависимость от 2D-приоров приводит к переобучению начальных точек под видимые поверхности на каждом тренировочном ракурсе. 4DGS360 решает эту проблему за счёт продвинутой 3D-инициализации, которая снижает геометрическую неопределённость окклюдированных областей. Наш 3D-трекер AnchorTAP3D строит усиленные траектории 3D-точек, используя надёжные 2D-треки в качестве якорей, подавляя дрейф и обеспечивая стабильную инициализацию, сохраняющую геометрию в закрытых областях. Такая инициализация в сочетании с оптимизацией позволяет получать целостные 4D-реконструкции на 360°. Мы также представляем iPhone360 — новый бенчмарк, в котором тестовые камеры расположены под углом до 135° относительно тренировочных видов, что позволяет проводить оценку на 360°, недоступную в существующих наборах данных. Эксперименты показывают, что 4DGS360 достигает наилучших результатов на iPhone360, iPhone и DAVIS как по визуальному качеству, так и по количественным метрикам.
English
We introduce 4DGS360, a diffusion-free framework for 360^{circ} dynamic object reconstruction from casual monocular video. Existing methods often fail to reconstruct consistent 360^{circ} geometry, as their heavy reliance on 2D-native priors causes initial points to overfit to visible surface in each training view. 4DGS360 addresses this challenge through a advanced 3D-native initialization that mitigates the geometric ambiguity of occluded regions. Our proposed 3D tracker, AnchorTAP3D, produces reinforced 3D point trajectories by leveraging confident 2D track points as anchors, suppressing drift and providing reliable initialization that preserves geometry in occluded regions. This initialization, combined with optimization, yields coherent 360^{circ} 4D reconstructions. We further present iPhone360, a new benchmark where test cameras are placed up to 135^{circ} apart from training views, enabling 360^{circ} evaluation that existing datasets cannot provide. Experiments show that 4DGS360 achieves state-of-the-art performance on the iPhone360, iPhone, and DAVIS datasets, both qualitatively and quantitatively.