Distilled-3DGS: Дистиллированное 3D-размытие по Гауссу
Distilled-3DGS:Distilled 3D Gaussian Splatting
August 19, 2025
Авторы: Lintao Xiang, Xinkai Chen, Jianhuang Lai, Guangcong Wang
cs.AI
Аннотация
Метод 3D Gaussian Splatting (3DGS) продемонстрировал выдающуюся эффективность в синтезе новых видов (NVS). Однако он имеет существенный недостаток: достижение высококачественного рендеринга обычно требует использования большого количества 3D-гауссов, что приводит к значительному потреблению памяти и требованиям к хранению данных. Для решения этой проблемы мы предлагаем первую структуру дистилляции знаний для 3DGS, включающую различные модели-учителя, такие как стандартный 3DGS, его варианты с добавлением шума и версии с регуляризацией через dropout. Выходные данные этих моделей-учителей агрегируются для оптимизации легковесной модели-ученика. Для дистилляции скрытой геометрической структуры мы предлагаем функцию потерь на основе структурного сходства, чтобы повысить согласованность пространственных геометрических распределений между моделью-учеником и моделью-учителем. В результате всесторонних количественных и качественных оценок на различных наборах данных предложенный метод Distilled-3DGS, простая, но эффективная структура без излишеств, демонстрирует впечатляющие результаты рендеринга как по качеству, так и по эффективности хранения данных по сравнению с современными методами. Страница проекта: https://distilled3dgs.github.io. Код: https://github.com/lt-xiang/Distilled-3DGS.
English
3D Gaussian Splatting (3DGS) has exhibited remarkable efficacy in novel view
synthesis (NVS). However, it suffers from a significant drawback: achieving
high-fidelity rendering typically necessitates a large number of 3D Gaussians,
resulting in substantial memory consumption and storage requirements. To
address this challenge, we propose the first knowledge distillation framework
for 3DGS, featuring various teacher models, including vanilla 3DGS,
noise-augmented variants, and dropout-regularized versions. The outputs of
these teachers are aggregated to guide the optimization of a lightweight
student model. To distill the hidden geometric structure, we propose a
structural similarity loss to boost the consistency of spatial geometric
distributions between the student and teacher model. Through comprehensive
quantitative and qualitative evaluations across diverse datasets, the proposed
Distilled-3DGS, a simple yet effective framework without bells and whistles,
achieves promising rendering results in both rendering quality and storage
efficiency compared to state-of-the-art methods. Project page:
https://distilled3dgs.github.io . Code:
https://github.com/lt-xiang/Distilled-3DGS .