Генеративная конденсация: обучение уплотнению гауссов для высококачественной обобщенной трехмерной реконструкции.
Generative Densification: Learning to Densify Gaussians for High-Fidelity Generalizable 3D Reconstruction
December 9, 2024
Авторы: Seungtae Nam, Xiangyu Sun, Gyeongjin Kang, Younggeun Lee, Seungjun Oh, Eunbyung Park
cs.AI
Аннотация
Обобщенные прямопропорциональные гауссовы модели достигли значительного прогресса в разреженной реконструкции 3D-изображений за счет использования априорных знаний из больших многозрительных наборов данных. Однако эти модели часто испытывают затруднения в представлении высокочастотных деталей из-за ограниченного количества гауссов. В то время как стратегия плотификации, используемая в оптимизации трехмерной гауссовой проекции (3D-GS) на основе сцены, может быть адаптирована к прямопропорциональным моделям, она может быть не оптимально подходящей для обобщенных сценариев. В данной статье мы предлагаем Генеративную Плотификацию, эффективный и обобщаемый метод для плотификации гауссов, сгенерированных прямопропорциональными моделями. В отличие от стратегии плотификации 3D-GS, которая итеративно разделяет и клонирует исходные параметры гауссов, наш метод повышает разрешение представлений признаков от прямопропорциональных моделей и генерирует соответствующие им детализированные гауссы за один проход, используя встроенные априорные знания для улучшенной обобщаемости. Экспериментальные результаты как на задачах восстановления объектов, так и сцен, показывают, что наш метод превосходит современные подходы с сравнимыми или меньшими размерами моделей, достигая значительных улучшений в представлении деталей.
English
Generalized feed-forward Gaussian models have achieved significant progress
in sparse-view 3D reconstruction by leveraging prior knowledge from large
multi-view datasets. However, these models often struggle to represent
high-frequency details due to the limited number of Gaussians. While the
densification strategy used in per-scene 3D Gaussian splatting (3D-GS)
optimization can be adapted to the feed-forward models, it may not be ideally
suited for generalized scenarios. In this paper, we propose Generative
Densification, an efficient and generalizable method to densify Gaussians
generated by feed-forward models. Unlike the 3D-GS densification strategy,
which iteratively splits and clones raw Gaussian parameters, our method
up-samples feature representations from the feed-forward models and generates
their corresponding fine Gaussians in a single forward pass, leveraging the
embedded prior knowledge for enhanced generalization. Experimental results on
both object-level and scene-level reconstruction tasks demonstrate that our
method outperforms state-of-the-art approaches with comparable or smaller model
sizes, achieving notable improvements in representing fine details.Summary
AI-Generated Summary