ChatPaper.aiChatPaper

Splatting 3D Compatto per Campi di Radianza Statici e Dinamici

Compact 3D Gaussian Splatting for Static and Dynamic Radiance Fields

August 7, 2024
Autori: Joo Chan Lee, Daniel Rho, Xiangyu Sun, Jong Hwan Ko, Eunbyung Park
cs.AI

Abstract

Il 3D Gaussian splatting (3DGS) è emerso recentemente come una rappresentazione alternativa che sfrutta una rappresentazione basata su Gaussiane 3D e introduce un rendering volumetrico approssimato, raggiungendo una velocità di rendering molto elevata e una qualità dell'immagine promettente. Inoltre, studi successivi hanno esteso con successo il 3DGS a scene 3D dinamiche, dimostrandone la vasta gamma di applicazioni. Tuttavia, un significativo svantaggio emerge poiché il 3DGS e i metodi che ne derivano richiedono un numero sostanziale di Gaussiane per mantenere l'alta fedeltà delle immagini renderizzate, il che comporta un elevato consumo di memoria e spazio di archiviazione. Per affrontare questo problema critico, poniamo particolare enfasi su due obiettivi chiave: ridurre il numero di punti Gaussiani senza sacrificare le prestazioni e comprimere gli attributi delle Gaussiane, come il colore dipendente dalla vista e la covarianza. A tal fine, proponiamo una strategia di maschera apprendibile che riduce significativamente il numero di Gaussiane mantenendo alte prestazioni. Inoltre, proponiamo una rappresentazione compatta ma efficace del colore dipendente dalla vista utilizzando un campo neurale basato su griglia piuttosto che affidandoci alle armoniche sferiche. Infine, apprendiamo codebook per rappresentare in modo compatto gli attributi geometrici e temporali mediante quantizzazione vettoriale residua. Con tecniche di compressione del modello come la quantizzazione e la codifica entropica, dimostriamo costantemente una riduzione dello spazio di archiviazione di oltre 25x e una velocità di rendering migliorata rispetto al 3DGS per scene statiche, mantenendo la qualità della rappresentazione della scena. Per le scene dinamiche, il nostro approccio raggiunge un'efficienza di archiviazione superiore a 12x e conserva una ricostruzione di alta qualità rispetto ai metodi esistenti all'avanguardia. Il nostro lavoro fornisce un framework completo per la rappresentazione di scene 3D, raggiungendo alte prestazioni, addestramento rapido, compattezza e rendering in tempo reale. La pagina del nostro progetto è disponibile all'indirizzo https://maincold2.github.io/c3dgs/.
English
3D Gaussian splatting (3DGS) has recently emerged as an alternative representation that leverages a 3D Gaussian-based representation and introduces an approximated volumetric rendering, achieving very fast rendering speed and promising image quality. Furthermore, subsequent studies have successfully extended 3DGS to dynamic 3D scenes, demonstrating its wide range of applications. However, a significant drawback arises as 3DGS and its following methods entail a substantial number of Gaussians to maintain the high fidelity of the rendered images, which requires a large amount of memory and storage. To address this critical issue, we place a specific emphasis on two key objectives: reducing the number of Gaussian points without sacrificing performance and compressing the Gaussian attributes, such as view-dependent color and covariance. To this end, we propose a learnable mask strategy that significantly reduces the number of Gaussians while preserving high performance. In addition, we propose a compact but effective representation of view-dependent color by employing a grid-based neural field rather than relying on spherical harmonics. Finally, we learn codebooks to compactly represent the geometric and temporal attributes by residual vector quantization. With model compression techniques such as quantization and entropy coding, we consistently show over 25x reduced storage and enhanced rendering speed compared to 3DGS for static scenes, while maintaining the quality of the scene representation. For dynamic scenes, our approach achieves more than 12x storage efficiency and retains a high-quality reconstruction compared to the existing state-of-the-art methods. Our work provides a comprehensive framework for 3D scene representation, achieving high performance, fast training, compactness, and real-time rendering. Our project page is available at https://maincold2.github.io/c3dgs/.
PDF143November 28, 2024