ChatPaper.aiChatPaper

Distilled-3DGS: Дистиллированное 3D-размытие по Гауссу

Distilled-3DGS:Distilled 3D Gaussian Splatting

August 19, 2025
Авторы: Lintao Xiang, Xinkai Chen, Jianhuang Lai, Guangcong Wang
cs.AI

Аннотация

Метод 3D Gaussian Splatting (3DGS) продемонстрировал выдающуюся эффективность в синтезе новых видов (NVS). Однако он имеет существенный недостаток: достижение высококачественного рендеринга обычно требует использования большого количества 3D-гауссов, что приводит к значительному потреблению памяти и требованиям к хранению данных. Для решения этой проблемы мы предлагаем первую структуру дистилляции знаний для 3DGS, включающую различные модели-учителя, такие как стандартный 3DGS, его варианты с добавлением шума и версии с регуляризацией через dropout. Выходные данные этих моделей-учителей агрегируются для оптимизации легковесной модели-ученика. Для дистилляции скрытой геометрической структуры мы предлагаем функцию потерь на основе структурного сходства, чтобы повысить согласованность пространственных геометрических распределений между моделью-учеником и моделью-учителем. В результате всесторонних количественных и качественных оценок на различных наборах данных предложенный метод Distilled-3DGS, простая, но эффективная структура без излишеств, демонстрирует впечатляющие результаты рендеринга как по качеству, так и по эффективности хранения данных по сравнению с современными методами. Страница проекта: https://distilled3dgs.github.io. Код: https://github.com/lt-xiang/Distilled-3DGS.
English
3D Gaussian Splatting (3DGS) has exhibited remarkable efficacy in novel view synthesis (NVS). However, it suffers from a significant drawback: achieving high-fidelity rendering typically necessitates a large number of 3D Gaussians, resulting in substantial memory consumption and storage requirements. To address this challenge, we propose the first knowledge distillation framework for 3DGS, featuring various teacher models, including vanilla 3DGS, noise-augmented variants, and dropout-regularized versions. The outputs of these teachers are aggregated to guide the optimization of a lightweight student model. To distill the hidden geometric structure, we propose a structural similarity loss to boost the consistency of spatial geometric distributions between the student and teacher model. Through comprehensive quantitative and qualitative evaluations across diverse datasets, the proposed Distilled-3DGS, a simple yet effective framework without bells and whistles, achieves promising rendering results in both rendering quality and storage efficiency compared to state-of-the-art methods. Project page: https://distilled3dgs.github.io . Code: https://github.com/lt-xiang/Distilled-3DGS .
PDF52August 25, 2025