ChatPaper.aiChatPaper

SAGS: 構造認識型3Dガウススプラッティング

SAGS: Structure-Aware 3D Gaussian Splatting

April 29, 2024
著者: Evangelos Ververas, Rolandos Alexandros Potamias, Jifei Song, Jiankang Deng, Stefanos Zafeiriou
cs.AI

要旨

NeRFの登場に続き、3D Gaussian Splatting(3D-GS)は、ボリュームメトリック手法の計算負荷を克服し、リアルタイムニューラルレンダリングへの道を切り開きました。3D-GSの先駆的な研究に続き、いくつかの手法が圧縮可能で高忠実度な性能を実現する代替案を模索してきました。しかし、これらの手法はジオメトリに依存しない最適化スキームを採用しているため、シーンの内在的な3D構造を無視し、表現力と表現品質を制限し、さまざまな浮動点やアーティファクトを引き起こしています。本研究では、シーンのジオメトリを暗黙的にエンコードする構造認識型Gaussian Splatting手法(SAGS)を提案し、ベンチマーク新視点合成データセットにおいて最先端のレンダリング性能とストレージ要件の削減を実現します。SAGSは、複雑なシーンの学習を促進し、シーンのジオメトリを保持する意味のある点変位を強制するローカル-グローバルグラフ表現に基づいています。さらに、シンプルでありながら効果的な中間点補間スキームを使用した軽量版SAGSを導入し、圧縮戦略に依存せずに最大24倍のサイズ削減を実現するコンパクトなシーン表現を示します。複数のベンチマークデータセットにわたる広範な実験により、SAGSがレンダリング品質とモデルサイズの両方において最先端の3D-GS手法と比較して優れていることが実証されました。また、構造認識型手法が浮動アーティファクトや以前の手法の不規則な歪みを効果的に軽減し、正確な深度マップを取得できることを示します。プロジェクトページ:https://eververas.github.io/SAGS/
English
Following the advent of NeRFs, 3D Gaussian Splatting (3D-GS) has paved the way to real-time neural rendering overcoming the computational burden of volumetric methods. Following the pioneering work of 3D-GS, several methods have attempted to achieve compressible and high-fidelity performance alternatives. However, by employing a geometry-agnostic optimization scheme, these methods neglect the inherent 3D structure of the scene, thereby restricting the expressivity and the quality of the representation, resulting in various floating points and artifacts. In this work, we propose a structure-aware Gaussian Splatting method (SAGS) that implicitly encodes the geometry of the scene, which reflects to state-of-the-art rendering performance and reduced storage requirements on benchmark novel-view synthesis datasets. SAGS is founded on a local-global graph representation that facilitates the learning of complex scenes and enforces meaningful point displacements that preserve the scene's geometry. Additionally, we introduce a lightweight version of SAGS, using a simple yet effective mid-point interpolation scheme, which showcases a compact representation of the scene with up to 24times size reduction without the reliance on any compression strategies. Extensive experiments across multiple benchmark datasets demonstrate the superiority of SAGS compared to state-of-the-art 3D-GS methods under both rendering quality and model size. Besides, we demonstrate that our structure-aware method can effectively mitigate floating artifacts and irregular distortions of previous methods while obtaining precise depth maps. Project page https://eververas.github.io/SAGS/.

Summary

AI-Generated Summary

PDF141December 8, 2024