ChatPaper.aiChatPaper

GANeRF: ニューラルラジアンスフィールドの最適化における識別器の活用

GANeRF: Leveraging Discriminators to Optimize Neural Radiance Fields

June 9, 2023
著者: Barbara Roessle, Norman Müller, Lorenzo Porzi, Samuel Rota Bulò, Peter Kontschieder, Matthias Nießner
cs.AI

要旨

ニューラルラジアンスフィールド(NeRF)は、新しい視点からの合成において印象的な結果を示している。しかし、徹底的な記録を行った場合でも、観測が不十分な領域やわずかな照明変化などにより、再構成に不完全さが生じることがある。我々の目標は、これらのさまざまな原因による不完全さを、共同のソリューションで軽減することである。具体的には、生成的敵対ネットワーク(GAN)が現実的な画像を生成する能力を活用し、NeRFを用いた3Dシーン再構成のリアリズムを向上させる。この目的のために、敵対的識別器を用いてシーンのパッチ分布を学習し、ラジアンスフィールド再構成にフィードバックを提供することで、3D整合性のある形でリアリズムを向上させる。これにより、レンダリングアーティファクトは、多視点パスレンダリング制約を課すことで、基盤となる3D表現において直接修復される。さらに、多解像度NeRFレンダリングを条件とした生成器を敵対的に訓練し、レンダリング品質をさらに向上させる。我々のアプローチが、レンダリング品質を大幅に向上させることを実証する。例えば、Tanks and Templesの高度な屋内シーンにおいて、LPIPSスコアをNerfactoと比較してほぼ半減させると同時に、PSNRを1.4dB向上させることが示された。
English
Neural Radiance Fields (NeRF) have shown impressive novel view synthesis results; nonetheless, even thorough recordings yield imperfections in reconstructions, for instance due to poorly observed areas or minor lighting changes. Our goal is to mitigate these imperfections from various sources with a joint solution: we take advantage of the ability of generative adversarial networks (GANs) to produce realistic images and use them to enhance realism in 3D scene reconstruction with NeRFs. To this end, we learn the patch distribution of a scene using an adversarial discriminator, which provides feedback to the radiance field reconstruction, thus improving realism in a 3D-consistent fashion. Thereby, rendering artifacts are repaired directly in the underlying 3D representation by imposing multi-view path rendering constraints. In addition, we condition a generator with multi-resolution NeRF renderings which is adversarially trained to further improve rendering quality. We demonstrate that our approach significantly improves rendering quality, e.g., nearly halving LPIPS scores compared to Nerfacto while at the same time improving PSNR by 1.4dB on the advanced indoor scenes of Tanks and Temples.
PDF40December 15, 2024