ChatPaper.aiChatPaper

FSGS: Real-time Few-shot View Synthesis met Gaussische Splatting

FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting

December 1, 2023
Auteurs: Zehao Zhu, Zhiwen Fan, Yifan Jiang, Zhangyang Wang
cs.AI

Samenvatting

Nieuwe beeldweergave-synthese vanuit beperkte observaties blijft een belangrijke en aanhoudende taak. Echter, hoge efficiëntie in bestaande NeRF-gebaseerde few-shot beeldweergave-synthese wordt vaak opgeofferd om een nauwkeurige 3D-weergave te verkrijgen. Om deze uitdaging aan te pakken, stellen we een few-shot beeldweergave-synthese framework voor, gebaseerd op 3D Gaussian Splatting, dat real-time en foto-realistische beeldweergave-synthese mogelijk maakt met slechts drie trainingsbeelden. De voorgestelde methode, genaamd FSGS, behandelt de extreem schaars geïnitialiseerde SfM-punten met een zorgvuldig ontworpen Gaussian Unpooling-proces. Onze methode verdeelt iteratief nieuwe Gaussians rond de meest representatieve locaties, waarna lokale details worden ingevuld in lege gebieden. We integreren ook een grootschalige vooraf getrainde monocular depth estimator binnen het Gaussians optimalisatieproces, waarbij we gebruik maken van online versterkte beelden om de geometrische optimalisatie te begeleiden naar een optimale oplossing. Beginnend vanuit schaarse punten waargenomen vanuit beperkte invoerperspectieven, kan onze FSGS nauwkeurig uitbreiden naar onbekende regio's, waardoor de scène volledig wordt gedekt en de renderkwaliteit van nieuwe beelden wordt verbeterd. Over het algemeen behaalt FSGS state-of-the-art prestaties in zowel nauwkeurigheid als render-efficiëntie over diverse datasets, waaronder LLFF, Mip-NeRF360 en Blender. Projectwebsite: https://zehaozhu.github.io/FSGS/.
English
Novel view synthesis from limited observations remains an important and persistent task. However, high efficiency in existing NeRF-based few-shot view synthesis is often compromised to obtain an accurate 3D representation. To address this challenge, we propose a few-shot view synthesis framework based on 3D Gaussian Splatting that enables real-time and photo-realistic view synthesis with as few as three training views. The proposed method, dubbed FSGS, handles the extremely sparse initialized SfM points with a thoughtfully designed Gaussian Unpooling process. Our method iteratively distributes new Gaussians around the most representative locations, subsequently infilling local details in vacant areas. We also integrate a large-scale pre-trained monocular depth estimator within the Gaussians optimization process, leveraging online augmented views to guide the geometric optimization towards an optimal solution. Starting from sparse points observed from limited input viewpoints, our FSGS can accurately grow into unseen regions, comprehensively covering the scene and boosting the rendering quality of novel views. Overall, FSGS achieves state-of-the-art performance in both accuracy and rendering efficiency across diverse datasets, including LLFF, Mip-NeRF360, and Blender. Project website: https://zehaozhu.github.io/FSGS/.
PDF121February 9, 2026