ChatPaper.aiChatPaper

GauFRe:リアルタイム動的新規視点合成のためのガウス変形場

GauFRe: Gaussian Deformation Fields for Real-time Dynamic Novel View Synthesis

December 18, 2023
著者: Yiqing Liang, Numair Khan, Zhengqin Li, Thu Nguyen-Phuoc, Douglas Lanman, James Tompkin, Lei Xiao
cs.AI

要旨

本論文では、単眼動画に特化した変形可能な3Dガウシアンを用いた動的シーン再構築手法を提案する。ガウシアンスプラッティングの効率性を基盤として、本手法は、カノニカル空間に存在する変形可能なガウシアン集合と、多層パーセプトロン(MLP)によって定義される時間依存の変形場を用いて、動的要素を表現する。さらに、自然なシーンでは大部分が静的領域であるという仮定の下、MLPの表現能力を集中させるために、静的ガウシアンポイントクラウドを追加する。動的および静的ポイントクラウドを連結したものをガウシアンスプラッティングラスタライザに入力し、リアルタイムレンダリングを可能にする。この微分可能なパイプラインは、自己教師ありレンダリング損失を用いてエンドツーエンドで最適化される。本手法は、最先端の動的神経放射輝度場(NeRF)手法と同等の結果を達成しつつ、大幅に高速な最適化とレンダリングを実現する。プロジェクトウェブサイト: https://lynl7130.github.io/gaufre/index.html
English
We propose a method for dynamic scene reconstruction using deformable 3D Gaussians that is tailored for monocular video. Building upon the efficiency of Gaussian splatting, our approach extends the representation to accommodate dynamic elements via a deformable set of Gaussians residing in a canonical space, and a time-dependent deformation field defined by a multi-layer perceptron (MLP). Moreover, under the assumption that most natural scenes have large regions that remain static, we allow the MLP to focus its representational power by additionally including a static Gaussian point cloud. The concatenated dynamic and static point clouds form the input for the Gaussian Splatting rasterizer, enabling real-time rendering. The differentiable pipeline is optimized end-to-end with a self-supervised rendering loss. Our method achieves results that are comparable to state-of-the-art dynamic neural radiance field methods while allowing much faster optimization and rendering. Project website: https://lynl7130.github.io/gaufre/index.html
PDF51December 15, 2024