ChatPaper.aiChatPaper

PlatoNeRF: Reconstrucción 3D en la Cueva de Platón mediante Lidar de Doble Rebote con Vista Única

PlatoNeRF: 3D Reconstruction in Plato's Cave via Single-View Two-Bounce Lidar

December 21, 2023
Autores: Tzofi Klinghoffer, Xiaoyu Xiang, Siddharth Somasundaram, Yuchen Fan, Christian Richardt, Ramesh Raskar, Rakesh Ranjan
cs.AI

Resumen

La reconstrucción 3D a partir de una sola vista es un desafío debido a la ambigüedad de las señales monoculares y la falta de información sobre las regiones ocluidas. Los campos de radiancia neural (NeRF), aunque populares para la síntesis de vistas y la reconstrucción 3D, suelen depender de imágenes multivista. Los métodos existentes para la reconstrucción 3D con NeRF a partir de una sola vista se basan en previos de datos para generar vistas de regiones ocluidas, que pueden no ser físicamente precisas, o en sombras observadas por cámaras RGB, que son difíciles de detectar en condiciones de luz ambiental y fondos con bajo albedo. Proponemos utilizar datos de tiempo de vuelo capturados por un diodo de avalancha de un solo fotón para superar estas limitaciones. Nuestro método modela trayectorias ópticas de dos rebotes con NeRF, utilizando datos transitorios de lidar para la supervisión. Al aprovechar las ventajas tanto de NeRF como de la luz de dos rebotes medida por lidar, demostramos que podemos reconstruir geometría visible y ocluida sin depender de previos de datos ni de condiciones controladas de iluminación ambiental o albedo de la escena. Además, mostramos una mejora en la generalización bajo restricciones prácticas en la resolución espacial y temporal del sensor. Creemos que nuestro método es una dirección prometedora a medida que los lidars de un solo fotón se vuelven omnipresentes en dispositivos de consumo, como teléfonos, tabletas y auriculares.
English
3D reconstruction from a single-view is challenging because of the ambiguity from monocular cues and lack of information about occluded regions. Neural radiance fields (NeRF), while popular for view synthesis and 3D reconstruction, are typically reliant on multi-view images. Existing methods for single-view 3D reconstruction with NeRF rely on either data priors to hallucinate views of occluded regions, which may not be physically accurate, or shadows observed by RGB cameras, which are difficult to detect in ambient light and low albedo backgrounds. We propose using time-of-flight data captured by a single-photon avalanche diode to overcome these limitations. Our method models two-bounce optical paths with NeRF, using lidar transient data for supervision. By leveraging the advantages of both NeRF and two-bounce light measured by lidar, we demonstrate that we can reconstruct visible and occluded geometry without data priors or reliance on controlled ambient lighting or scene albedo. In addition, we demonstrate improved generalization under practical constraints on sensor spatial- and temporal-resolution. We believe our method is a promising direction as single-photon lidars become ubiquitous on consumer devices, such as phones, tablets, and headsets.
PDF121December 15, 2024