ChatPaper.aiChatPaper

HyRF: Campos de Radiação Híbridos para Síntese de Novas Visões com Eficiência de Memória e Alta Qualidade

HyRF: Hybrid Radiance Fields for Memory-efficient and High-quality Novel View Synthesis

September 21, 2025
Autores: Zipeng Wang, Dan Xu
cs.AI

Resumo

Recentemente, o 3D Gaussian Splatting (3DGS) surgiu como uma alternativa poderosa às abordagens baseadas em NeRF, permitindo a síntese de novas visões em tempo real e de alta qualidade por meio de Gaussianas 3D explícitas e otimizáveis. No entanto, o 3DGS sofre com um overhead significativo de memória devido à sua dependência de parâmetros por Gaussiana para modelar efeitos dependentes da vista e formas anisotrópicas. Embora trabalhos recentes proponham comprimir o 3DGS com campos neurais, esses métodos têm dificuldade em capturar variações espaciais de alta frequência nas propriedades das Gaussianas, levando a uma reconstrução degradada de detalhes finos. Apresentamos os Hybrid Radiance Fields (HyRF), uma nova representação de cena que combina as vantagens das Gaussianas explícitas e dos campos neurais. O HyRF decompõe a cena em (1) um conjunto compacto de Gaussianas explícitas que armazenam apenas parâmetros críticos de alta frequência e (2) campos neurais baseados em grade que preveem as propriedades restantes. Para aumentar a capacidade de representação, introduzimos uma arquitetura de campo neural desacoplada, modelando separadamente a geometria (escala, opacidade, rotação) e a cor dependente da vista. Além disso, propomos um esquema de renderização híbrida que combina o splatting de Gaussianas com um fundo previsto por campo neural, abordando limitações na representação de cenas distantes. Experimentos demonstram que o HyRF alcança qualidade de renderização de última geração enquanto reduz o tamanho do modelo em mais de 20 vezes em comparação com o 3DGS, mantendo o desempenho em tempo real. Nossa página do projeto está disponível em https://wzpscott.github.io/hyrf/.
English
Recently, 3D Gaussian Splatting (3DGS) has emerged as a powerful alternative to NeRF-based approaches, enabling real-time, high-quality novel view synthesis through explicit, optimizable 3D Gaussians. However, 3DGS suffers from significant memory overhead due to its reliance on per-Gaussian parameters to model view-dependent effects and anisotropic shapes. While recent works propose compressing 3DGS with neural fields, these methods struggle to capture high-frequency spatial variations in Gaussian properties, leading to degraded reconstruction of fine details. We present Hybrid Radiance Fields (HyRF), a novel scene representation that combines the strengths of explicit Gaussians and neural fields. HyRF decomposes the scene into (1) a compact set of explicit Gaussians storing only critical high-frequency parameters and (2) grid-based neural fields that predict remaining properties. To enhance representational capacity, we introduce a decoupled neural field architecture, separately modeling geometry (scale, opacity, rotation) and view-dependent color. Additionally, we propose a hybrid rendering scheme that composites Gaussian splatting with a neural field-predicted background, addressing limitations in distant scene representation. Experiments demonstrate that HyRF achieves state-of-the-art rendering quality while reducing model size by over 20 times compared to 3DGS and maintaining real-time performance. Our project page is available at https://wzpscott.github.io/hyrf/.
PDF72September 24, 2025