ChatPaper.aiChatPaper

HybridNeRF: Rendering Neurale Efficiente tramite Superfici Volumetriche Adattive

HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces

December 5, 2023
Autori: Haithem Turki, Vasu Agrawal, Samuel Rota Bulò, Lorenzo Porzi, Peter Kontschieder, Deva Ramanan, Michael Zollhöfer, Christian Richardt
cs.AI

Abstract

I campi di radianza neurale offrono una qualità di sintesi visiva all'avanguardia, ma tendono a essere lenti nel rendering. Una delle ragioni è che utilizzano il rendering volumetrico, richiedendo quindi molti campioni (e query al modello) per ogni raggio durante il rendering. Sebbene questa rappresentazione sia flessibile e facile da ottimizzare, la maggior parte degli oggetti del mondo reale può essere modellata in modo più efficiente con superfici anziché volumi, richiedendo un numero molto inferiore di campioni per raggio. Questa osservazione ha stimolato notevoli progressi nelle rappresentazioni superficiali come le funzioni di distanza con segno, ma queste possono avere difficoltà a modellare strutture semi-opache e sottili. Proponiamo un metodo, HybridNeRF, che sfrutta i punti di forza di entrambe le rappresentazioni, rendendo la maggior parte degli oggetti come superfici mentre modella volumetricamente la (tipicamente) piccola frazione di regioni complesse. Valutiamo HybridNeRF rispetto al complesso dataset Eyeful Tower insieme ad altri dataset comunemente utilizzati per la sintesi visiva. Confrontandoci con baseline all'avanguardia, inclusi approcci recenti basati sul rasterizzazione, riduciamo i tassi di errore del 15-30% raggiungendo frame rate in tempo reale (almeno 36 FPS) per risoluzioni di realtà virtuale (2Kx2K).
English
Neural radiance fields provide state-of-the-art view synthesis quality but tend to be slow to render. One reason is that they make use of volume rendering, thus requiring many samples (and model queries) per ray at render time. Although this representation is flexible and easy to optimize, most real-world objects can be modeled more efficiently with surfaces instead of volumes, requiring far fewer samples per ray. This observation has spurred considerable progress in surface representations such as signed distance functions, but these may struggle to model semi-opaque and thin structures. We propose a method, HybridNeRF, that leverages the strengths of both representations by rendering most objects as surfaces while modeling the (typically) small fraction of challenging regions volumetrically. We evaluate HybridNeRF against the challenging Eyeful Tower dataset along with other commonly used view synthesis datasets. When comparing to state-of-the-art baselines, including recent rasterization-based approaches, we improve error rates by 15-30% while achieving real-time framerates (at least 36 FPS) for virtual-reality resolutions (2Kx2K).
PDF70December 15, 2024