FrugalNeRF:无需学习先验知识的少样本新视角合成快速收敛FrugalNeRF: Fast Convergence for Few-shot Novel View Synthesis without
Learned Priors
在少样本情况下,神经辐射场(Neural Radiance Fields,NeRF)面临着重大挑战,主要是由于过拟合和高保真渲染的长时间训练。现有方法,如FreeNeRF和SparseNeRF,使用频率正则化或预训练先验,但在复杂调度和偏差方面存在困难。我们引入了FrugalNeRF,这是一种新颖的少样本NeRF框架,它利用跨多个尺度共享权重的体素来高效表示场景细节。我们的关键贡献是跨尺度几何适应方案,根据跨尺度的重投影误差选择伪地面实际深度。这在训练过程中引导,而无需依赖外部学习的先验知识,从而充分利用训练数据。它还可以集成预训练先验,提高质量而不减慢收敛速度。在LLFF、DTU和RealEstate-10K上的实验证明,FrugalNeRF优于其他少样本NeRF方法,同时显著减少训练时间,使其成为高效准确的3D场景重建的实用解决方案。