ChatPaper.aiChatPaper

Distilled-3DGS: Distilação de Splatting Gaussiano 3D

Distilled-3DGS:Distilled 3D Gaussian Splatting

August 19, 2025
Autores: Lintao Xiang, Xinkai Chen, Jianhuang Lai, Guangcong Wang
cs.AI

Resumo

O 3D Gaussian Splatting (3DGS) demonstrou eficácia notável na síntese de novas visões (NVS). No entanto, ele apresenta uma desvantagem significativa: alcançar renderização de alta fidelidade geralmente exige um grande número de Gaussianas 3D, resultando em consumo substancial de memória e requisitos de armazenamento. Para enfrentar esse desafio, propomos o primeiro framework de destilação de conhecimento para 3DGS, que inclui diversos modelos professores, como o 3DGS padrão, variantes com aumento de ruído e versões regularizadas com dropout. As saídas desses professores são agregadas para orientar a otimização de um modelo estudante leve. Para destilar a estrutura geométrica oculta, propomos uma função de perda de similaridade estrutural para aumentar a consistência das distribuições geométricas espaciais entre os modelos estudante e professor. Por meio de avaliações quantitativas e qualitativas abrangentes em diversos conjuntos de dados, o Distilled-3DGS proposto, um framework simples, porém eficaz, sem elementos supérfluos, alcança resultados promissores de renderização tanto em qualidade quanto em eficiência de armazenamento em comparação com métodos state-of-the-art. Página do projeto: https://distilled3dgs.github.io. Código: https://github.com/lt-xiang/Distilled-3DGS.
English
3D Gaussian Splatting (3DGS) has exhibited remarkable efficacy in novel view synthesis (NVS). However, it suffers from a significant drawback: achieving high-fidelity rendering typically necessitates a large number of 3D Gaussians, resulting in substantial memory consumption and storage requirements. To address this challenge, we propose the first knowledge distillation framework for 3DGS, featuring various teacher models, including vanilla 3DGS, noise-augmented variants, and dropout-regularized versions. The outputs of these teachers are aggregated to guide the optimization of a lightweight student model. To distill the hidden geometric structure, we propose a structural similarity loss to boost the consistency of spatial geometric distributions between the student and teacher model. Through comprehensive quantitative and qualitative evaluations across diverse datasets, the proposed Distilled-3DGS, a simple yet effective framework without bells and whistles, achieves promising rendering results in both rendering quality and storage efficiency compared to state-of-the-art methods. Project page: https://distilled3dgs.github.io . Code: https://github.com/lt-xiang/Distilled-3DGS .
PDF72August 25, 2025