ChatPaper.aiChatPaper

Distilled-3DGS: Distilación de Proyección Gaussiana 3D

Distilled-3DGS:Distilled 3D Gaussian Splatting

August 19, 2025
Autores: Lintao Xiang, Xinkai Chen, Jianhuang Lai, Guangcong Wang
cs.AI

Resumen

El método de *3D Gaussian Splatting* (3DGS) ha demostrado una eficacia notable en la síntesis de nuevas vistas (NVS, por sus siglas en inglés). Sin embargo, presenta una desventaja significativa: lograr una representación de alta fidelidad generalmente requiere un gran número de gaussianos 3D, lo que resulta en un consumo considerable de memoria y requisitos de almacenamiento. Para abordar este desafío, proponemos el primer marco de destilación de conocimiento para 3DGS, que incluye diversos modelos maestros, como 3DGS básico, variantes con aumento de ruido y versiones regularizadas con *dropout*. Las salidas de estos modelos maestros se agregan para guiar la optimización de un modelo estudiante ligero. Para destilar la estructura geométrica oculta, proponemos una pérdida de similitud estructural para mejorar la consistencia en las distribuciones geométricas espaciales entre el modelo estudiante y el maestro. A través de evaluaciones cuantitativas y cualitativas exhaustivas en diversos conjuntos de datos, el marco propuesto, denominado *Distilled-3DGS*, simple pero efectivo y sin elementos superfluos, logra resultados prometedores tanto en calidad de representación como en eficiencia de almacenamiento en comparación con métodos de vanguardia. Página del proyecto: https://distilled3dgs.github.io. Código: https://github.com/lt-xiang/Distilled-3DGS.
English
3D Gaussian Splatting (3DGS) has exhibited remarkable efficacy in novel view synthesis (NVS). However, it suffers from a significant drawback: achieving high-fidelity rendering typically necessitates a large number of 3D Gaussians, resulting in substantial memory consumption and storage requirements. To address this challenge, we propose the first knowledge distillation framework for 3DGS, featuring various teacher models, including vanilla 3DGS, noise-augmented variants, and dropout-regularized versions. The outputs of these teachers are aggregated to guide the optimization of a lightweight student model. To distill the hidden geometric structure, we propose a structural similarity loss to boost the consistency of spatial geometric distributions between the student and teacher model. Through comprehensive quantitative and qualitative evaluations across diverse datasets, the proposed Distilled-3DGS, a simple yet effective framework without bells and whistles, achieves promising rendering results in both rendering quality and storage efficiency compared to state-of-the-art methods. Project page: https://distilled3dgs.github.io . Code: https://github.com/lt-xiang/Distilled-3DGS .
PDF52August 25, 2025