ChatPaper.aiChatPaper

Distilled-3DGS: Distillazione di Splatting Gaussiano 3D

Distilled-3DGS:Distilled 3D Gaussian Splatting

August 19, 2025
Autori: Lintao Xiang, Xinkai Chen, Jianhuang Lai, Guangcong Wang
cs.AI

Abstract

Il 3D Gaussian Splatting (3DGS) ha dimostrato un'efficacia notevole nella sintesi di nuove viste (NVS). Tuttavia, presenta un significativo svantaggio: il raggiungimento di rendering ad alta fedeltà richiede tipicamente un numero elevato di Gaussiane 3D, con conseguente consumo di memoria e requisiti di archiviazione sostanziali. Per affrontare questa sfida, proponiamo il primo framework di distillazione della conoscenza per il 3DGS, che include vari modelli insegnanti, tra cui il 3DGS standard, varianti con rumore aggiunto e versioni regolarizzate con dropout. Gli output di questi insegnanti vengono aggregati per guidare l'ottimizzazione di un modello studente leggero. Per distillare la struttura geometrica nascosta, proponiamo una funzione di perdita basata sulla similarità strutturale per migliorare la coerenza delle distribuzioni geometriche spaziali tra il modello studente e quello insegnante. Attraverso valutazioni quantitative e qualitative approfondite su diversi dataset, il nostro Distilled-3DGS, un framework semplice ma efficace privo di elementi superflui, ottiene risultati di rendering promettenti sia in termini di qualità che di efficienza di archiviazione rispetto ai metodi all'avanguardia. Pagina del progetto: https://distilled3dgs.github.io. Codice: https://github.com/lt-xiang/Distilled-3DGS.
English
3D Gaussian Splatting (3DGS) has exhibited remarkable efficacy in novel view synthesis (NVS). However, it suffers from a significant drawback: achieving high-fidelity rendering typically necessitates a large number of 3D Gaussians, resulting in substantial memory consumption and storage requirements. To address this challenge, we propose the first knowledge distillation framework for 3DGS, featuring various teacher models, including vanilla 3DGS, noise-augmented variants, and dropout-regularized versions. The outputs of these teachers are aggregated to guide the optimization of a lightweight student model. To distill the hidden geometric structure, we propose a structural similarity loss to boost the consistency of spatial geometric distributions between the student and teacher model. Through comprehensive quantitative and qualitative evaluations across diverse datasets, the proposed Distilled-3DGS, a simple yet effective framework without bells and whistles, achieves promising rendering results in both rendering quality and storage efficiency compared to state-of-the-art methods. Project page: https://distilled3dgs.github.io . Code: https://github.com/lt-xiang/Distilled-3DGS .
PDF82August 25, 2025