ChatPaper.aiChatPaper

3D-Gaußsches Splatting für Echtzeit-Radiance-Field-Rendering

3D Gaussian Splatting for Real-Time Radiance Field Rendering

August 8, 2023
Autoren: Bernhard Kerbl, Georgios Kopanas, Thomas Leimkühler, George Drettakis
cs.AI

Zusammenfassung

Radiance-Field-Methoden haben kürzlich die Neuansichtssynthese von Szenen, die mit mehreren Fotos oder Videos aufgenommen wurden, revolutioniert. Allerdings erfordert das Erreichen hoher visueller Qualität immer noch neuronale Netze, die teuer in Training und Rendering sind, während neuere schnellere Methoden unweigerlich Geschwindigkeit gegen Qualität eintauschen. Für unbegrenzte und vollständige Szenen (anstelle isolierter Objekte) und 1080p-Auflösung kann keine aktuelle Methode Echtzeit-Darstellungsraten erreichen. Wir führen drei Schlüsselelemente ein, die es uns ermöglichen, state-of-the-art visuelle Qualität bei wettbewerbsfähigen Trainingszeiten zu erreichen und insbesondere eine hochwertige Echtzeit-Neuansichtssynthese (>= 30 fps) bei 1080p-Auflösung zu ermöglichen. Erstens repräsentieren wir die Szene, ausgehend von spärlichen Punkten, die während der Kamerakalibrierung erzeugt werden, mit 3D-Gaußschen, die wünschenswerte Eigenschaften kontinuierlicher volumetrischer Radiance Fields für die Szenenoptimierung bewahren, während unnötige Berechnungen im leeren Raum vermieden werden; Zweitens führen wir eine verschachtelte Optimierung/Dichtekontrolle der 3D-Gaußschen durch, wobei insbesondere anisotrope Kovarianzen optimiert werden, um eine präzise Darstellung der Szene zu erreichen; Drittens entwickeln wir einen schnellen sichtbarkeitsbewussten Rendering-Algorithmus, der anisotropes Splatting unterstützt und sowohl das Training beschleunigt als auch Echtzeit-Rendering ermöglicht. Wir demonstrieren state-of-the-art visuelle Qualität und Echtzeit-Rendering auf mehreren etablierten Datensätzen.
English
Radiance Field methods have recently revolutionized novel-view synthesis of scenes captured with multiple photos or videos. However, achieving high visual quality still requires neural networks that are costly to train and render, while recent faster methods inevitably trade off speed for quality. For unbounded and complete scenes (rather than isolated objects) and 1080p resolution rendering, no current method can achieve real-time display rates. We introduce three key elements that allow us to achieve state-of-the-art visual quality while maintaining competitive training times and importantly allow high-quality real-time (>= 30 fps) novel-view synthesis at 1080p resolution. First, starting from sparse points produced during camera calibration, we represent the scene with 3D Gaussians that preserve desirable properties of continuous volumetric radiance fields for scene optimization while avoiding unnecessary computation in empty space; Second, we perform interleaved optimization/density control of the 3D Gaussians, notably optimizing anisotropic covariance to achieve an accurate representation of the scene; Third, we develop a fast visibility-aware rendering algorithm that supports anisotropic splatting and both accelerates training and allows realtime rendering. We demonstrate state-of-the-art visual quality and real-time rendering on several established datasets.
PDF18613December 15, 2024