ChatPaper.aiChatPaper

Multi-Ruimte Neurale Radiance Velden

Multi-Space Neural Radiance Fields

May 7, 2023
Auteurs: Ze-Xin Yin, Jiaxiong Qiu, Ming-Ming Cheng, Bo Ren
cs.AI

Samenvatting

Bestaande Neural Radiance Fields (NeRF) methoden hebben moeite met het omgaan met reflecterende objecten, wat vaak resulteert in wazige of vervormde weergaven. In plaats van een enkel radianceveld te berekenen, stellen we een multi-space neural radiance field (MS-NeRF) voor dat de scène representeert met behulp van een groep kenmerkvelden in parallelle subruimtes, wat leidt tot een beter begrip van het neuraal netwerk ten aanzien van de aanwezigheid van reflecterende en brekende objecten. Ons multi-space schema fungeert als een verbetering van bestaande NeRF-methoden, waarbij slechts een kleine rekenkundige overhead nodig is voor het trainen en afleiden van de extra-ruimte-uitvoer. We demonstreren de superioriteit en compatibiliteit van onze aanpak met behulp van drie representatieve NeRF-gebaseerde modellen, namelijk NeRF, Mip-NeRF en Mip-NeRF 360. Vergelijkingen worden uitgevoerd op een nieuw geconstrueerde dataset bestaande uit 25 synthetische scènes en 7 echt vastgelegde scènes met complexe reflectie en breking, allemaal met 360-graden gezichtspunten. Uitgebreide experimenten tonen aan dat onze aanpak de bestaande single-space NeRF-methoden aanzienlijk overtreft bij het renderen van hoogwaardige scènes met complexe lichtpaden door spiegelachtige objecten. Onze code en dataset zullen publiekelijk beschikbaar zijn op https://zx-yin.github.io/msnerf.
English
Existing Neural Radiance Fields (NeRF) methods suffer from the existence of reflective objects, often resulting in blurry or distorted rendering. Instead of calculating a single radiance field, we propose a multi-space neural radiance field (MS-NeRF) that represents the scene using a group of feature fields in parallel sub-spaces, which leads to a better understanding of the neural network toward the existence of reflective and refractive objects. Our multi-space scheme works as an enhancement to existing NeRF methods, with only small computational overheads needed for training and inferring the extra-space outputs. We demonstrate the superiority and compatibility of our approach using three representative NeRF-based models, i.e., NeRF, Mip-NeRF, and Mip-NeRF 360. Comparisons are performed on a novelly constructed dataset consisting of 25 synthetic scenes and 7 real captured scenes with complex reflection and refraction, all having 360-degree viewpoints. Extensive experiments show that our approach significantly outperforms the existing single-space NeRF methods for rendering high-quality scenes concerned with complex light paths through mirror-like objects. Our code and dataset will be publicly available at https://zx-yin.github.io/msnerf.
PDF10February 8, 2026