ChatPaper.aiChatPaper

SparseCraft: Reconstrucción Neural de Pocas Muestras a través de la Linealización Geométrica Guiada por Estereopsis

SparseCraft: Few-Shot Neural Reconstruction through Stereopsis Guided Geometric Linearization

July 19, 2024
Autores: Mae Younes, Amine Ouasfi, Adnane Boukhayma
cs.AI

Resumen

Presentamos un enfoque novedoso para recuperar la forma 3D y la apariencia dependiente de la vista a partir de unas pocas imágenes a color, lo que permite una reconstrucción 3D eficiente y síntesis de nuevas vistas. Nuestro método aprende una representación neural implícita en forma de una Función de Distancia Firmada (SDF) y un campo de radiación. El modelo se entrena progresivamente a través de renderizado volumétrico habilitado para marcha de rayos, y se regulariza con señales de estéreo multi-vista (MVS) libres de aprendizaje. Clave en nuestra contribución es una estrategia novedosa de aprendizaje de función de forma neural implícita que fomenta que nuestro campo SDF sea lo más lineal posible cerca del conjunto de nivel, robusteciendo así el entrenamiento contra el ruido que emana de las señales de supervisión y regularización. Sin utilizar precursores preentrenados, nuestro método, llamado SparseCraft, logra un rendimiento de vanguardia tanto en síntesis de nuevas vistas como en reconstrucción a partir de vistas dispersas en bancos de pruebas estándar, mientras que requiere menos de 10 minutos para el entrenamiento.
English
We present a novel approach for recovering 3D shape and view dependent appearance from a few colored images, enabling efficient 3D reconstruction and novel view synthesis. Our method learns an implicit neural representation in the form of a Signed Distance Function (SDF) and a radiance field. The model is trained progressively through ray marching enabled volumetric rendering, and regularized with learning-free multi-view stereo (MVS) cues. Key to our contribution is a novel implicit neural shape function learning strategy that encourages our SDF field to be as linear as possible near the level-set, hence robustifying the training against noise emanating from the supervision and regularization signals. Without using any pretrained priors, our method, called SparseCraft, achieves state-of-the-art performances both in novel-view synthesis and reconstruction from sparse views in standard benchmarks, while requiring less than 10 minutes for training.

Summary

AI-Generated Summary

PDF52November 28, 2024