FrugalNeRF: Convergencia rápida para síntesis de vistas novedosas con pocas tomas sin
Priors AprendidosFrugalNeRF: Fast Convergence for Few-shot Novel View Synthesis without
Learned Priors
Los Campos de Radiación Neurales (NeRF) enfrentan desafíos significativos en escenarios de poca cantidad de datos, principalmente debido al sobreajuste y a los largos tiempos de entrenamiento para renderizado de alta fidelidad. Métodos existentes, como FreeNeRF y SparseNeRF, utilizan regularización de frecuencia o priors pre-entrenados pero tienen dificultades con la programación compleja y sesgos. Presentamos FrugalNeRF, un nuevo marco de trabajo NeRF de poca cantidad de datos que aprovecha la compartición de pesos en voxels a través de múltiples escalas para representar eficientemente detalles de escena. Nuestra contribución clave es un esquema de adaptación geométrica entre escalas que selecciona profundidades pseudo verdaderas basadas en errores de reproyección a través de escalas. Esto guía el entrenamiento sin depender de priors aprendidos externamente, permitiendo la utilización completa de los datos de entrenamiento. También puede integrar priors pre-entrenados, mejorando la calidad sin ralentizar la convergencia. Experimentos en LLFF, DTU y RealEstate-10K muestran que FrugalNeRF supera a otros métodos NeRF de poca cantidad de datos mientras reduce significativamente el tiempo de entrenamiento, convirtiéndolo en una solución práctica para la reconstrucción eficiente y precisa de escenas 3D.