ChatPaper.aiChatPaper

SplineGS: Надежный движущийся адаптивный сплайн для динамических трехмерных гауссовских функций в реальном времени из монокулярного видео.

SplineGS: Robust Motion-Adaptive Spline for Real-Time Dynamic 3D Gaussians from Monocular Video

December 13, 2024
Авторы: Jongmin Park, Minh-Quan Viet Bui, Juan Luis Gonzalez Bello, Jaeho Moon, Jihyong Oh, Munchurl Kim
cs.AI

Аннотация

Синтез новых видов из видеороликов в естественной среде представляет собой сложную задачу из-за динамики сцены и отсутствия многовидовых подсказок. Для решения этой проблемы мы предлагаем SplineGS, динамическую 3D-систему гауссовского сплетения (3DGS) без использования COLMAP для высококачественной реконструкции и быстрого визуализации из монокулярных видеороликов. В центре этой системы находится новый метод Motion-Adaptive Spline (MAS), который представляет непрерывные динамические 3D-гауссовские траектории с использованием кубических сплайнов Эрмита с небольшим количеством контрольных точек. Для MAS мы вводим метод обрезки контрольных точек Motion-Adaptive Control points Pruning (MACP) для моделирования деформации каждого динамического 3D-гауссовского объекта при различных движениях, постепенно обрезая контрольные точки, сохраняя целостность динамического моделирования. Кроме того, мы представляем совместную стратегию оптимизации для оценки параметров камеры и атрибутов 3D-гауссовских объектов, используя фотометрическую и геометрическую согласованность. Это устраняет необходимость предварительной обработки структуры движения и повышает устойчивость SplineGS в реальных условиях. Эксперименты показывают, что SplineGS значительно превосходит современные методы в качестве синтеза новых видов для динамичных сцен из монокулярных видеороликов, обеспечивая ускорение визуализации в тысячи раз.
English
Synthesizing novel views from in-the-wild monocular videos is challenging due to scene dynamics and the lack of multi-view cues. To address this, we propose SplineGS, a COLMAP-free dynamic 3D Gaussian Splatting (3DGS) framework for high-quality reconstruction and fast rendering from monocular videos. At its core is a novel Motion-Adaptive Spline (MAS) method, which represents continuous dynamic 3D Gaussian trajectories using cubic Hermite splines with a small number of control points. For MAS, we introduce a Motion-Adaptive Control points Pruning (MACP) method to model the deformation of each dynamic 3D Gaussian across varying motions, progressively pruning control points while maintaining dynamic modeling integrity. Additionally, we present a joint optimization strategy for camera parameter estimation and 3D Gaussian attributes, leveraging photometric and geometric consistency. This eliminates the need for Structure-from-Motion preprocessing and enhances SplineGS's robustness in real-world conditions. Experiments show that SplineGS significantly outperforms state-of-the-art methods in novel view synthesis quality for dynamic scenes from monocular videos, achieving thousands times faster rendering speed.

Summary

AI-Generated Summary

PDF73December 18, 2024