ChatPaper.aiChatPaper

SpecNeRF: Codifica Gaussiana Direzionale per Riflessi Speculari

SpecNeRF: Gaussian Directional Encoding for Specular Reflections

December 20, 2023
Autori: Li Ma, Vasu Agrawal, Haithem Turki, Changil Kim, Chen Gao, Pedro Sander, Michael Zollhöfer, Christian Richardt
cs.AI

Abstract

I campi di radianza neurale hanno ottenuto prestazioni notevoli nella modellazione dell'aspetto di scene 3D. Tuttavia, gli approcci esistenti continuano a incontrare difficoltà con l'aspetto dipendente dalla vista delle superfici lucide, specialmente in condizioni di illuminazione complessa negli ambienti interni. A differenza dei metodi esistenti, che tipicamente assumono un'illuminazione distante come una mappa ambientale, proponiamo una codifica direzionale gaussiana apprendibile per modellare meglio gli effetti dipendenti dalla vista in condizioni di illuminazione a campo vicino. In particolare, la nostra nuova codifica direzionale cattura la natura spazialmente variabile dell'illuminazione a campo vicino e emula il comportamento delle mappe ambientali prefiltrate. Di conseguenza, consente la valutazione efficiente del colore speculare preconvoluto in qualsiasi posizione 3D con coefficienti di ruvidità variabili. Introduciamo inoltre un priore geometrico basato sui dati che aiuta a mitigare l'ambiguità tra forma e radianza nella modellazione delle riflessioni. Dimostriamo che la nostra codifica direzionale gaussiana e il priore geometrico migliorano significativamente la modellazione delle riflessioni speculari complesse nei campi di radianza neurale, contribuendo a scomporre l'aspetto in componenti fisicamente più significative.
English
Neural radiance fields have achieved remarkable performance in modeling the appearance of 3D scenes. However, existing approaches still struggle with the view-dependent appearance of glossy surfaces, especially under complex lighting of indoor environments. Unlike existing methods, which typically assume distant lighting like an environment map, we propose a learnable Gaussian directional encoding to better model the view-dependent effects under near-field lighting conditions. Importantly, our new directional encoding captures the spatially-varying nature of near-field lighting and emulates the behavior of prefiltered environment maps. As a result, it enables the efficient evaluation of preconvolved specular color at any 3D location with varying roughness coefficients. We further introduce a data-driven geometry prior that helps alleviate the shape radiance ambiguity in reflection modeling. We show that our Gaussian directional encoding and geometry prior significantly improve the modeling of challenging specular reflections in neural radiance fields, which helps decompose appearance into more physically meaningful components.
PDF60December 15, 2024