ChatPaper.aiChatPaper

FSGS : Synthèse de vues en temps réel avec peu d'exemples utilisant le lissage gaussien

FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting

December 1, 2023
Auteurs: Zehao Zhu, Zhiwen Fan, Yifan Jiang, Zhangyang Wang
cs.AI

Résumé

La synthèse de nouvelles vues à partir d'observations limitées reste une tâche importante et persistante. Cependant, l'efficacité élevée dans les méthodes existantes de synthèse de vues peu nombreuses basées sur NeRF est souvent compromise pour obtenir une représentation 3D précise. Pour relever ce défi, nous proposons un cadre de synthèse de vues peu nombreuses basé sur le lissage 3D par Gaussiennes, permettant une synthèse de vues en temps réel et photo-réaliste avec seulement trois vues d'entraînement. La méthode proposée, nommée FSGS, gère les points SfM initialisés de manière extrêmement sparse grâce à un processus de dépooling par Gaussiennes soigneusement conçu. Notre méthode distribue itérativement de nouvelles Gaussiennes autour des emplacements les plus représentatifs, comblant ainsi les détails locaux dans les zones vides. Nous intégrons également un estimateur de profondeur monoculaire pré-entraîné à grande échelle dans le processus d'optimisation des Gaussiennes, exploitant des vues augmentées en ligne pour guider l'optimisation géométrique vers une solution optimale. Partant de points spars observés à partir de points de vue d'entrée limités, notre FSGS peut s'étendre avec précision dans des régions non vues, couvrant complètement la scène et améliorant la qualité de rendu des nouvelles vues. Globalement, FSGS atteint des performances de pointe en termes de précision et d'efficacité de rendu sur divers ensembles de données, notamment LLFF, Mip-NeRF360 et Blender. Site web du projet : https://zehaozhu.github.io/FSGS/.
English
Novel view synthesis from limited observations remains an important and persistent task. However, high efficiency in existing NeRF-based few-shot view synthesis is often compromised to obtain an accurate 3D representation. To address this challenge, we propose a few-shot view synthesis framework based on 3D Gaussian Splatting that enables real-time and photo-realistic view synthesis with as few as three training views. The proposed method, dubbed FSGS, handles the extremely sparse initialized SfM points with a thoughtfully designed Gaussian Unpooling process. Our method iteratively distributes new Gaussians around the most representative locations, subsequently infilling local details in vacant areas. We also integrate a large-scale pre-trained monocular depth estimator within the Gaussians optimization process, leveraging online augmented views to guide the geometric optimization towards an optimal solution. Starting from sparse points observed from limited input viewpoints, our FSGS can accurately grow into unseen regions, comprehensively covering the scene and boosting the rendering quality of novel views. Overall, FSGS achieves state-of-the-art performance in both accuracy and rendering efficiency across diverse datasets, including LLFF, Mip-NeRF360, and Blender. Project website: https://zehaozhu.github.io/FSGS/.
PDF121December 15, 2024