ChatPaper.aiChatPaper

UniSDF: Unificación de Representaciones Neuronales para la Reconstrucción 3D de Alta Fidelidad en Escenas Complejas con Reflexiones

UniSDF: Unifying Neural Representations for High-Fidelity 3D Reconstruction of Complex Scenes with Reflections

December 20, 2023
Autores: Fangjinhua Wang, Marie-Julie Rakotosaona, Michael Niemeyer, Richard Szeliski, Marc Pollefeys, Federico Tombari
cs.AI

Resumen

Las representaciones neuronales de escenas 3D han demostrado un gran potencial para la reconstrucción 3D a partir de imágenes 2D. Sin embargo, reconstruir capturas del mundo real de escenas complejas sigue siendo un desafío. Los métodos genéricos existentes de reconstrucción 3D a menudo tienen dificultades para representar detalles geométricos finos y no modelan adecuadamente las superficies reflectantes en escenas de gran escala. Las técnicas que se centran explícitamente en superficies reflectantes pueden modelar reflejos complejos y detallados al aprovechar mejores parametrizaciones de la reflexión. Sin embargo, observamos que estos métodos a menudo no son robustos en escenarios reales no acotados donde están presentes componentes tanto reflectantes como no reflectantes. En este trabajo, proponemos UniSDF, un método de reconstrucción 3D de propósito general que puede reconstruir escenas grandes y complejas con reflejos. Investigamos tanto técnicas de parametrización de predicción de color basadas en la vista como en la reflexión, y encontramos que la combinación explícita de estas representaciones en el espacio 3D permite la reconstrucción de superficies que son geométricamente más precisas, especialmente para superficies reflectantes. Además, combinamos esta representación con una arquitectura de red de malla multi-resolución que se entrena de manera gruesa a fina, permitiendo reconstrucciones más rápidas que los métodos anteriores. Experimentos extensivos en conjuntos de datos a nivel de objeto como DTU y Shiny Blender, así como en conjuntos de datos no acotados como Mip-NeRF 360 y Ref-NeRF real, demuestran que nuestro método es capaz de reconstruir de manera robusta escenas complejas de gran escala con detalles finos y superficies reflectantes. Consulte nuestra página del proyecto en https://fangjinhuawang.github.io/UniSDF.
English
Neural 3D scene representations have shown great potential for 3D reconstruction from 2D images. However, reconstructing real-world captures of complex scenes still remains a challenge. Existing generic 3D reconstruction methods often struggle to represent fine geometric details and do not adequately model reflective surfaces of large-scale scenes. Techniques that explicitly focus on reflective surfaces can model complex and detailed reflections by exploiting better reflection parameterizations. However, we observe that these methods are often not robust in real unbounded scenarios where non-reflective as well as reflective components are present. In this work, we propose UniSDF, a general purpose 3D reconstruction method that can reconstruct large complex scenes with reflections. We investigate both view-based as well as reflection-based color prediction parameterization techniques and find that explicitly blending these representations in 3D space enables reconstruction of surfaces that are more geometrically accurate, especially for reflective surfaces. We further combine this representation with a multi-resolution grid backbone that is trained in a coarse-to-fine manner, enabling faster reconstructions than prior methods. Extensive experiments on object-level datasets DTU, Shiny Blender as well as unbounded datasets Mip-NeRF 360 and Ref-NeRF real demonstrate that our method is able to robustly reconstruct complex large-scale scenes with fine details and reflective surfaces. Please see our project page at https://fangjinhuawang.github.io/UniSDF.
PDF70December 15, 2024