ChatPaper.aiChatPaper

HyRF: Hybride Radiance Velden voor Geheugenefficiënte en Hoogwaardige Nieuwe Weergave Synthese

HyRF: Hybrid Radiance Fields for Memory-efficient and High-quality Novel View Synthesis

September 21, 2025
Auteurs: Zipeng Wang, Dan Xu
cs.AI

Samenvatting

Onlangs is 3D Gaussian Splatting (3DGS) naar voren gekomen als een krachtig alternatief voor NeRF-gebaseerde benaderingen, waardoor real-time, hoogwaardige synthese van nieuwe gezichtspunten mogelijk wordt gemaakt via expliciete, optimaliseerbare 3D Gaussians. Echter, 3DGS kampt met een aanzienlijk geheugenoverhead vanwege de afhankelijkheid van per-Gaussian parameters om view-dependent effecten en anisotrope vormen te modelleren. Hoewel recente werken voorstellen om 3DGS te comprimeren met neurale velden, hebben deze methoden moeite om hoogfrequente ruimtelijke variaties in Gaussian eigenschappen vast te leggen, wat leidt tot een verslechterde reconstructie van fijne details. Wij presenteren Hybrid Radiance Fields (HyRF), een nieuwe scène-representatie die de sterke punten van expliciete Gaussians en neurale velden combineert. HyRF deelt de scène op in (1) een compacte set van expliciete Gaussians die alleen kritieke hoogfrequente parameters opslaan en (2) grid-gebaseerde neurale velden die de overige eigenschappen voorspellen. Om de representatiecapaciteit te vergroten, introduceren we een ontkoppelde neurale veldarchitectuur, die apart geometrie (schaal, opaciteit, rotatie) en view-dependent kleur modelleert. Daarnaast stellen we een hybride renderingschema voor dat Gaussian splatting combineert met een door een neuraal veld voorspelde achtergrond, waardoor beperkingen in de representatie van verre scènes worden aangepakt. Experimenten tonen aan dat HyRF state-of-the-art renderingkwaliteit bereikt terwijl het modelformaat met meer dan 20 keer wordt verkleind in vergelijking met 3DGS en real-time prestaties behoudt. Onze projectpagina is beschikbaar op https://wzpscott.github.io/hyrf/.
English
Recently, 3D Gaussian Splatting (3DGS) has emerged as a powerful alternative to NeRF-based approaches, enabling real-time, high-quality novel view synthesis through explicit, optimizable 3D Gaussians. However, 3DGS suffers from significant memory overhead due to its reliance on per-Gaussian parameters to model view-dependent effects and anisotropic shapes. While recent works propose compressing 3DGS with neural fields, these methods struggle to capture high-frequency spatial variations in Gaussian properties, leading to degraded reconstruction of fine details. We present Hybrid Radiance Fields (HyRF), a novel scene representation that combines the strengths of explicit Gaussians and neural fields. HyRF decomposes the scene into (1) a compact set of explicit Gaussians storing only critical high-frequency parameters and (2) grid-based neural fields that predict remaining properties. To enhance representational capacity, we introduce a decoupled neural field architecture, separately modeling geometry (scale, opacity, rotation) and view-dependent color. Additionally, we propose a hybrid rendering scheme that composites Gaussian splatting with a neural field-predicted background, addressing limitations in distant scene representation. Experiments demonstrate that HyRF achieves state-of-the-art rendering quality while reducing model size by over 20 times compared to 3DGS and maintaining real-time performance. Our project page is available at https://wzpscott.github.io/hyrf/.
PDF72September 24, 2025