ChatPaper.aiChatPaper

Distilled-3DGS: Gedistilleerde 3D Gaussische Splatting

Distilled-3DGS:Distilled 3D Gaussian Splatting

August 19, 2025
Auteurs: Lintao Xiang, Xinkai Chen, Jianhuang Lai, Guangcong Wang
cs.AI

Samenvatting

3D Gaussian Splatting (3DGS) heeft opmerkelijke effectiviteit getoond bij het synthetiseren van nieuwe aanzichten (NVS). Het heeft echter een belangrijk nadeel: het bereiken van hoogwaardige rendering vereist doorgaans een groot aantal 3D Gaussians, wat resulteert in aanzienlijk geheugenverbruik en opslagbehoeften. Om deze uitdaging aan te pakken, stellen we het eerste kennisdistillatiekader voor 3DGS voor, met verschillende leraarmodellen, waaronder standaard 3DGS, varianten met ruisaugmentatie en versies met dropout-regularisatie. De uitvoer van deze leraren wordt geaggregeerd om de optimalisatie van een lichtgewicht studentmodel te begeleiden. Om de verborgen geometrische structuur te distilleren, stellen we een structurele gelijkenisverliesfunctie voor om de consistentie van ruimtelijke geometrische verdelingen tussen het student- en leraarmodel te verbeteren. Door uitgebreide kwantitatieve en kwalitatieve evaluaties over diverse datasets, bereikt het voorgestelde Distilled-3DGS, een eenvoudig maar effectief kader zonder overbodige toevoegingen, veelbelovende renderresultaten in zowel renderkwaliteit als opslagefficiëntie in vergelijking met state-of-the-art methoden. Projectpagina: https://distilled3dgs.github.io. Code: https://github.com/lt-xiang/Distilled-3DGS.
English
3D Gaussian Splatting (3DGS) has exhibited remarkable efficacy in novel view synthesis (NVS). However, it suffers from a significant drawback: achieving high-fidelity rendering typically necessitates a large number of 3D Gaussians, resulting in substantial memory consumption and storage requirements. To address this challenge, we propose the first knowledge distillation framework for 3DGS, featuring various teacher models, including vanilla 3DGS, noise-augmented variants, and dropout-regularized versions. The outputs of these teachers are aggregated to guide the optimization of a lightweight student model. To distill the hidden geometric structure, we propose a structural similarity loss to boost the consistency of spatial geometric distributions between the student and teacher model. Through comprehensive quantitative and qualitative evaluations across diverse datasets, the proposed Distilled-3DGS, a simple yet effective framework without bells and whistles, achieves promising rendering results in both rendering quality and storage efficiency compared to state-of-the-art methods. Project page: https://distilled3dgs.github.io . Code: https://github.com/lt-xiang/Distilled-3DGS .
PDF82August 25, 2025