FrugalNeRF : Convergence Rapide pour la Synthèse de Nouvelles Vues en Quelques Étapes sans A priori ApprisFrugalNeRF: Fast Convergence for Few-shot Novel View Synthesis without
Learned Priors
Les champs de radiance neurale (NeRF) rencontrent des défis importants dans les scénarios à faible tirage, principalement en raison du surajustement et des longs temps d'entraînement pour un rendu haute fidélité. Les méthodes existantes, telles que FreeNeRF et SparseNeRF, utilisent une régularisation de fréquence ou des a priori pré-entraînés mais rencontrent des difficultés avec une planification complexe et un biais. Nous présentons FrugalNeRF, un nouveau cadre NeRF à faible tirage qui exploite le partage de poids des voxels à travers plusieurs échelles pour représenter efficacement les détails de la scène. Notre contribution clé est un schéma d'adaptation géométrique inter-échelles qui sélectionne une profondeur pseudo-vérité terrain basée sur les erreurs de reprojection à travers les échelles. Cela guide l'entraînement sans dépendre de a priori appris externement, permettant une utilisation complète des données d'entraînement. Il peut également intégrer des a priori pré-entraînés, améliorant la qualité sans ralentir la convergence. Les expériences sur LLFF, DTU et RealEstate-10K montrent que FrugalNeRF surpasse les autres méthodes NeRF à faible tirage tout en réduisant significativement le temps d'entraînement, en faisant une solution pratique pour une reconstruction de scène 3D efficace et précise.