ChatPaper.aiChatPaper

GauFRe: Gaußsche Deformationsfelder für die Echtzeit-Synthese dynamischer neuer Ansichten

GauFRe: Gaussian Deformation Fields for Real-time Dynamic Novel View Synthesis

December 18, 2023
papers.authors: Yiqing Liang, Numair Khan, Zhengqin Li, Thu Nguyen-Phuoc, Douglas Lanman, James Tompkin, Lei Xiao
cs.AI

papers.abstract

Wir schlagen eine Methode zur dynamischen Szenenrekonstruktion mit deformierbaren 3D-Gaußverteilungen vor, die speziell für monokulare Videos entwickelt wurde. Aufbauend auf der Effizienz des Gauß-Splatting erweitert unser Ansatz die Darstellung, um dynamische Elemente durch eine deformierbare Menge von Gaußverteilungen in einem kanonischen Raum und ein zeitabhängiges Deformationsfeld, das durch ein mehrschichtiges Perzeptron (MLP) definiert wird, zu berücksichtigen. Darüber hinaus gehen wir davon aus, dass die meisten natürlichen Szenen große Bereiche aufweisen, die statisch bleiben, und ermöglichen es dem MLP, seine Darstellungskraft zu fokussieren, indem zusätzlich eine statische Gauß-Punktwolke einbezogen wird. Die zusammengefügten dynamischen und statischen Punktwolken bilden die Eingabe für den Gauß-Splatting-Rasterizer, was eine Echtzeit-Rendering ermöglicht. Die differenzierbare Pipeline wird end-to-end mit einem selbstüberwachten Rendering-Verlust optimiert. Unsere Methode erzielt Ergebnisse, die mit state-of-the-art dynamischen Neural Radiance Field-Methoden vergleichbar sind, während sie eine viel schnellere Optimierung und Rendering ermöglicht. Projektwebsite: https://lynl7130.github.io/gaufre/index.html
English
We propose a method for dynamic scene reconstruction using deformable 3D Gaussians that is tailored for monocular video. Building upon the efficiency of Gaussian splatting, our approach extends the representation to accommodate dynamic elements via a deformable set of Gaussians residing in a canonical space, and a time-dependent deformation field defined by a multi-layer perceptron (MLP). Moreover, under the assumption that most natural scenes have large regions that remain static, we allow the MLP to focus its representational power by additionally including a static Gaussian point cloud. The concatenated dynamic and static point clouds form the input for the Gaussian Splatting rasterizer, enabling real-time rendering. The differentiable pipeline is optimized end-to-end with a self-supervised rendering loss. Our method achieves results that are comparable to state-of-the-art dynamic neural radiance field methods while allowing much faster optimization and rendering. Project website: https://lynl7130.github.io/gaufre/index.html
PDF51December 15, 2024