ChatPaper.aiChatPaper

SpecNeRF: Codificación Direccional Gaussiana para Reflexiones Especulares

SpecNeRF: Gaussian Directional Encoding for Specular Reflections

December 20, 2023
Autores: Li Ma, Vasu Agrawal, Haithem Turki, Changil Kim, Chen Gao, Pedro Sander, Michael Zollhöfer, Christian Richardt
cs.AI

Resumen

Los campos de radiancia neural han logrado un rendimiento notable en el modelado de la apariencia de escenas 3D. Sin embargo, los enfoques existentes aún tienen dificultades con la apariencia dependiente de la vista en superficies brillantes, especialmente bajo iluminación compleja en entornos interiores. A diferencia de los métodos actuales, que suelen asumir iluminación distante como un mapa de entorno, proponemos una codificación direccional gaussiana aprendible para modelar mejor los efectos dependientes de la vista en condiciones de iluminación de campo cercano. Es importante destacar que nuestra nueva codificación direccional captura la naturaleza espacialmente variable de la iluminación de campo cercano y emula el comportamiento de los mapas de entorno pre-filtrados. Como resultado, permite la evaluación eficiente del color especular preconvolucionado en cualquier ubicación 3D con coeficientes de rugosidad variables. Además, introducimos un previo geométrico basado en datos que ayuda a mitigar la ambigüedad entre forma y radiancia en el modelado de reflexiones. Demostramos que nuestra codificación direccional gaussiana y el previo geométrico mejoran significativamente el modelado de reflexiones especulares desafiantes en campos de radiancia neural, lo que ayuda a descomponer la apariencia en componentes físicamente más significativos.
English
Neural radiance fields have achieved remarkable performance in modeling the appearance of 3D scenes. However, existing approaches still struggle with the view-dependent appearance of glossy surfaces, especially under complex lighting of indoor environments. Unlike existing methods, which typically assume distant lighting like an environment map, we propose a learnable Gaussian directional encoding to better model the view-dependent effects under near-field lighting conditions. Importantly, our new directional encoding captures the spatially-varying nature of near-field lighting and emulates the behavior of prefiltered environment maps. As a result, it enables the efficient evaluation of preconvolved specular color at any 3D location with varying roughness coefficients. We further introduce a data-driven geometry prior that helps alleviate the shape radiance ambiguity in reflection modeling. We show that our Gaussian directional encoding and geometry prior significantly improve the modeling of challenging specular reflections in neural radiance fields, which helps decompose appearance into more physically meaningful components.
PDF70December 15, 2024