ChatPaper.aiChatPaper

Distilled-3DGS: Destilliertes 3D-Gaußsches Splatting

Distilled-3DGS:Distilled 3D Gaussian Splatting

August 19, 2025
papers.authors: Lintao Xiang, Xinkai Chen, Jianhuang Lai, Guangcong Wang
cs.AI

papers.abstract

3D Gaussian Splatting (3DGS) hat bemerkenswerte Effizienz bei der Synthese neuer Ansichten (Novel View Synthesis, NVS) gezeigt. Allerdings weist es einen erheblichen Nachteil auf: Um hochwertiges Rendering zu erreichen, ist in der Regel eine große Anzahl von 3D-Gauß-Verteilungen erforderlich, was zu einem erheblichen Speicherverbrauch und hohen Speicheranforderungen führt. Um diese Herausforderung zu bewältigen, schlagen wir das erste Wissensdistillations-Framework für 3DGS vor, das verschiedene Lehrermodelle umfasst, darunter das Standard-3DGS, rauschaugmentierte Varianten und dropout-regularisierte Versionen. Die Ausgaben dieser Lehrermodelle werden aggregiert, um die Optimierung eines schlanken Schülermodells zu steuern. Um die verborgenen geometrischen Strukturen zu destillieren, schlagen wir einen strukturellen Ähnlichkeitsverlust vor, um die Konsistenz der räumlichen geometrischen Verteilungen zwischen dem Schüler- und dem Lehrermodell zu verbessern. Durch umfassende quantitative und qualitative Bewertungen über verschiedene Datensätze hinweg erzielt das vorgeschlagene Distilled-3DGS, ein einfaches, aber effektives Framework ohne unnötige Komplexität, vielversprechende Rendering-Ergebnisse sowohl in Bezug auf die Rendering-Qualität als auch auf die Speichereffizienz im Vergleich zu modernsten Methoden. Projektseite: https://distilled3dgs.github.io . Code: https://github.com/lt-xiang/Distilled-3DGS .
English
3D Gaussian Splatting (3DGS) has exhibited remarkable efficacy in novel view synthesis (NVS). However, it suffers from a significant drawback: achieving high-fidelity rendering typically necessitates a large number of 3D Gaussians, resulting in substantial memory consumption and storage requirements. To address this challenge, we propose the first knowledge distillation framework for 3DGS, featuring various teacher models, including vanilla 3DGS, noise-augmented variants, and dropout-regularized versions. The outputs of these teachers are aggregated to guide the optimization of a lightweight student model. To distill the hidden geometric structure, we propose a structural similarity loss to boost the consistency of spatial geometric distributions between the student and teacher model. Through comprehensive quantitative and qualitative evaluations across diverse datasets, the proposed Distilled-3DGS, a simple yet effective framework without bells and whistles, achieves promising rendering results in both rendering quality and storage efficiency compared to state-of-the-art methods. Project page: https://distilled3dgs.github.io . Code: https://github.com/lt-xiang/Distilled-3DGS .
PDF52August 25, 2025