ChatPaper.aiChatPaper

ReconFusion: 3D-Rekonstruktion mit Diffusions-Priors

ReconFusion: 3D Reconstruction with Diffusion Priors

December 5, 2023
Autoren: Rundi Wu, Ben Mildenhall, Philipp Henzler, Keunhong Park, Ruiqi Gao, Daniel Watson, Pratul P. Srinivasan, Dor Verbin, Jonathan T. Barron, Ben Poole, Aleksander Holynski
cs.AI

Zusammenfassung

3D-Rekonstruktionsmethoden wie Neural Radiance Fields (NeRFs) zeichnen sich durch die Erzeugung fotorealistischer neuer Ansichten komplexer Szenen aus. Die Wiederherstellung eines hochwertigen NeRF erfordert jedoch typischerweise Dutzende bis Hunderte von Eingabebildern, was einen zeitaufwändigen Aufnahmeprozess zur Folge hat. Wir stellen ReconFusion vor, um reale Szenen mit nur wenigen Fotos zu rekonstruieren. Unser Ansatz nutzt ein Diffusion-Prior für die Synthese neuer Ansichten, das auf synthetischen und multiview-Datensätzen trainiert wurde, und reguliert eine NeRF-basierte 3D-Rekonstruktionspipeline bei neuen Kamerapositionen, die über die durch die Eingabebilder erfassten hinausgehen. Unsere Methode synthetisiert realistische Geometrie und Textur in unterbestimmten Regionen, während das Erscheinungsbild beobachteter Regionen erhalten bleibt. Wir führen eine umfangreiche Evaluierung über verschiedene reale Datensätze durch, darunter vorwärtsgerichtete und 360-Grad-Szenen, und zeigen signifikante Leistungsverbesserungen gegenüber bisherigen NeRF-Rekonstruktionsansätzen mit wenigen Ansichten.
English
3D reconstruction methods such as Neural Radiance Fields (NeRFs) excel at rendering photorealistic novel views of complex scenes. However, recovering a high-quality NeRF typically requires tens to hundreds of input images, resulting in a time-consuming capture process. We present ReconFusion to reconstruct real-world scenes using only a few photos. Our approach leverages a diffusion prior for novel view synthesis, trained on synthetic and multiview datasets, which regularizes a NeRF-based 3D reconstruction pipeline at novel camera poses beyond those captured by the set of input images. Our method synthesizes realistic geometry and texture in underconstrained regions while preserving the appearance of observed regions. We perform an extensive evaluation across various real-world datasets, including forward-facing and 360-degree scenes, demonstrating significant performance improvements over previous few-view NeRF reconstruction approaches.
PDF110December 15, 2024