ChatPaper.aiChatPaper

Distilled-3DGS : Distillation du splatting 3D gaussien

Distilled-3DGS:Distilled 3D Gaussian Splatting

August 19, 2025
papers.authors: Lintao Xiang, Xinkai Chen, Jianhuang Lai, Guangcong Wang
cs.AI

papers.abstract

Le **3D Gaussian Splatting (3DGS)** a démontré une efficacité remarquable dans la synthèse de nouvelles vues (NVS). Cependant, il présente un inconvénient majeur : l’obtention d’un rendu haute fidélité nécessite généralement un grand nombre de Gaussiennes 3D, entraînant une consommation de mémoire et des besoins de stockage substantiels. Pour relever ce défi, nous proposons le premier cadre de **distillation de connaissances** pour le 3DGS, intégrant divers modèles enseignants, notamment le 3DGS standard, des variantes augmentées par bruit et des versions régularisées par dropout. Les sorties de ces enseignants sont agrégées pour guider l’optimisation d’un modèle étudiant léger. Pour distiller la structure géométrique cachée, nous proposons une **fonction de perte de similarité structurelle** afin d’améliorer la cohérence des distributions géométriques spatiales entre le modèle étudiant et le modèle enseignant. Grâce à des évaluations quantitatives et qualitatives approfondies sur divers jeux de données, le **Distilled-3DGS**, un cadre simple mais efficace sans fioritures, atteint des résultats de rendu prometteurs en termes de qualité de rendu et d’efficacité de stockage par rapport aux méthodes de pointe. Page du projet : https://distilled3dgs.github.io . Code : https://github.com/lt-xiang/Distilled-3DGS .
English
3D Gaussian Splatting (3DGS) has exhibited remarkable efficacy in novel view synthesis (NVS). However, it suffers from a significant drawback: achieving high-fidelity rendering typically necessitates a large number of 3D Gaussians, resulting in substantial memory consumption and storage requirements. To address this challenge, we propose the first knowledge distillation framework for 3DGS, featuring various teacher models, including vanilla 3DGS, noise-augmented variants, and dropout-regularized versions. The outputs of these teachers are aggregated to guide the optimization of a lightweight student model. To distill the hidden geometric structure, we propose a structural similarity loss to boost the consistency of spatial geometric distributions between the student and teacher model. Through comprehensive quantitative and qualitative evaluations across diverse datasets, the proposed Distilled-3DGS, a simple yet effective framework without bells and whistles, achieves promising rendering results in both rendering quality and storage efficiency compared to state-of-the-art methods. Project page: https://distilled3dgs.github.io . Code: https://github.com/lt-xiang/Distilled-3DGS .
PDF52August 25, 2025