ChatPaper.aiChatPaper

Campos de Radiação Neural Multi-Espaço

Multi-Space Neural Radiance Fields

May 7, 2023
Autores: Ze-Xin Yin, Jiaxiong Qiu, Ming-Ming Cheng, Bo Ren
cs.AI

Resumo

Os métodos existentes de Campos de Radiosidade Neural (NeRF) sofrem com a presença de objetos reflexivos, frequentemente resultando em renderizações borradas ou distorcidas. Em vez de calcular um único campo de radiosidade, propomos um campo de radiosidade neural multi-espaço (MS-NeRF) que representa a cena utilizando um grupo de campos de características em subespaços paralelos, o que leva a uma melhor compreensão da rede neural em relação à existência de objetos reflexivos e refrativos. Nosso esquema multi-espaço funciona como um aprimoramento para os métodos NeRF existentes, com apenas pequenos custos computacionais adicionais necessários para treinar e inferir as saídas do espaço extra. Demonstramos a superioridade e compatibilidade de nossa abordagem utilizando três modelos representativos baseados em NeRF, ou seja, NeRF, Mip-NeRF e Mip-NeRF 360. As comparações são realizadas em um conjunto de dados recém-construído, consistindo de 25 cenas sintéticas e 7 cenas reais capturadas com reflexão e refração complexas, todas com pontos de vista de 360 graus. Experimentos extensivos mostram que nossa abordagem supera significativamente os métodos NeRF de espaço único existentes para renderizar cenas de alta qualidade envolvendo caminhos de luz complexos através de objetos semelhantes a espelhos. Nosso código e conjunto de dados estarão publicamente disponíveis em https://zx-yin.github.io/msnerf.
English
Existing Neural Radiance Fields (NeRF) methods suffer from the existence of reflective objects, often resulting in blurry or distorted rendering. Instead of calculating a single radiance field, we propose a multi-space neural radiance field (MS-NeRF) that represents the scene using a group of feature fields in parallel sub-spaces, which leads to a better understanding of the neural network toward the existence of reflective and refractive objects. Our multi-space scheme works as an enhancement to existing NeRF methods, with only small computational overheads needed for training and inferring the extra-space outputs. We demonstrate the superiority and compatibility of our approach using three representative NeRF-based models, i.e., NeRF, Mip-NeRF, and Mip-NeRF 360. Comparisons are performed on a novelly constructed dataset consisting of 25 synthetic scenes and 7 real captured scenes with complex reflection and refraction, all having 360-degree viewpoints. Extensive experiments show that our approach significantly outperforms the existing single-space NeRF methods for rendering high-quality scenes concerned with complex light paths through mirror-like objects. Our code and dataset will be publicly available at https://zx-yin.github.io/msnerf.
PDF10February 8, 2026