FrugalNeRF: Convergência Rápida para Síntese de Novas Visualizações com Poucas Imagens sem Priors AprendidosFrugalNeRF: Fast Convergence for Few-shot Novel View Synthesis without
Learned Priors
Os Campos de Radiância Neural (NeRF) enfrentam desafios significativos em cenários de poucas amostras, principalmente devido ao overfitting e longos tempos de treinamento para renderização de alta fidelidade. Métodos existentes, como FreeNeRF e SparseNeRF, utilizam regularização de frequência ou priors pré-treinados, mas enfrentam dificuldades com agendamento complexo e viés. Apresentamos o FrugalNeRF, um novo framework NeRF de poucas amostras que aproveita voxels de compartilhamento de peso em várias escalas para representar eficientemente detalhes da cena. Nossa contribuição chave é um esquema de adaptação geométrica entre escalas que seleciona profundidade pseudo ground truth com base em erros de reprojeção entre escalas. Isso guia o treinamento sem depender de priors aprendidos externamente, permitindo a utilização total dos dados de treinamento. Também pode integrar priors pré-treinados, melhorando a qualidade sem retardar a convergência. Experimentos em LLFF, DTU e RealEstate-10K mostram que o FrugalNeRF supera outros métodos NeRF de poucas amostras, reduzindo significativamente o tempo de treinamento, tornando-o uma solução prática para reconstrução eficiente e precisa de cenas 3D.