ChatPaper.aiChatPaper

HyRF: Гибридные поля излучения для эффективного использования памяти и синтеза высококачественных новых ракурсов

HyRF: Hybrid Radiance Fields for Memory-efficient and High-quality Novel View Synthesis

September 21, 2025
Авторы: Zipeng Wang, Dan Xu
cs.AI

Аннотация

Недавно метод 3D Gaussian Splatting (3DGS) появился как мощная альтернатива подходам на основе NeRF, обеспечивая синтез новых видов в реальном времени с высоким качеством за счет использования явных, оптимизируемых 3D гауссов. Однако 3DGS страдает от значительных затрат памяти из-за зависимости от параметров для каждого гаусса, используемых для моделирования зависящих от вида эффектов и анизотропных форм. Хотя в последних работах предлагается сжатие 3DGS с помощью нейронных полей, эти методы плохо справляются с захватом высокочастотных пространственных вариаций свойств гауссов, что приводит к ухудшению восстановления мелких деталей. Мы представляем Hybrid Radiance Fields (HyRF) — новое представление сцены, объединяющее преимущества явных гауссов и нейронных полей. HyRF разлагает сцену на (1) компактный набор явных гауссов, хранящих только ключевые высокочастотные параметры, и (2) сеточные нейронные поля, предсказывающие оставшиеся свойства. Для повышения выразительной способности мы вводим архитектуру разделенных нейронных полей, отдельно моделирующих геометрию (масштаб, прозрачность, вращение) и зависящий от вида цвет. Кроме того, мы предлагаем гибридную схему рендеринга, которая комбинирует гауссово размытие с фоном, предсказанным нейронным полем, устраняя ограничения в представлении удаленных частей сцены. Эксперименты показывают, что HyRF достигает наивысшего качества рендеринга, сокращая размер модели более чем в 20 раз по сравнению с 3DGS, сохраняя при этом производительность в реальном времени. Наша страница проекта доступна по адресу https://wzpscott.github.io/hyrf/.
English
Recently, 3D Gaussian Splatting (3DGS) has emerged as a powerful alternative to NeRF-based approaches, enabling real-time, high-quality novel view synthesis through explicit, optimizable 3D Gaussians. However, 3DGS suffers from significant memory overhead due to its reliance on per-Gaussian parameters to model view-dependent effects and anisotropic shapes. While recent works propose compressing 3DGS with neural fields, these methods struggle to capture high-frequency spatial variations in Gaussian properties, leading to degraded reconstruction of fine details. We present Hybrid Radiance Fields (HyRF), a novel scene representation that combines the strengths of explicit Gaussians and neural fields. HyRF decomposes the scene into (1) a compact set of explicit Gaussians storing only critical high-frequency parameters and (2) grid-based neural fields that predict remaining properties. To enhance representational capacity, we introduce a decoupled neural field architecture, separately modeling geometry (scale, opacity, rotation) and view-dependent color. Additionally, we propose a hybrid rendering scheme that composites Gaussian splatting with a neural field-predicted background, addressing limitations in distant scene representation. Experiments demonstrate that HyRF achieves state-of-the-art rendering quality while reducing model size by over 20 times compared to 3DGS and maintaining real-time performance. Our project page is available at https://wzpscott.github.io/hyrf/.
PDF72September 24, 2025