ChatPaper.aiChatPaper

SelfSplat: Splatting gaussiano tridimensional generalizable sin poses ni prior tridimensional

SelfSplat: Pose-Free and 3D Prior-Free Generalizable 3D Gaussian Splatting

November 26, 2024
Autores: Gyeongjin Kang, Jisang Yoo, Jihyeon Park, Seungtae Nam, Hyeonsoo Im, Sangheon Shin, Sangpil Kim, Eunbyung Park
cs.AI

Resumen

Proponemos SelfSplat, un novedoso modelo de Splatting Gaussiano en 3D diseñado para realizar una reconstrucción en 3D generalizable sin postura y sin información previa en 3D a partir de imágenes multivista no poseídas. Estos escenarios son inherentemente mal planteados debido a la falta de datos de verdad terreno, información geométrica aprendida y la necesidad de lograr una reconstrucción precisa en 3D sin ajuste fino, lo que dificulta que los métodos convencionales obtengan resultados de alta calidad. Nuestro modelo aborda estos desafíos integrando de manera efectiva representaciones explícitas en 3D con técnicas de estimación de profundidad y postura auto-supervisadas, lo que resulta en mejoras recíprocas tanto en la precisión de la postura como en la calidad de la reconstrucción en 3D. Además, incorporamos una red de estimación de postura con conciencia de emparejamiento y un módulo de refinamiento de profundidad para mejorar la consistencia geométrica entre vistas, asegurando reconstrucciones en 3D más precisas y estables. Para presentar el rendimiento de nuestro método, lo evaluamos en conjuntos de datos del mundo real a gran escala, incluidos RealEstate10K, ACID y DL3DV. SelfSplat logra resultados superiores a los métodos anteriores de vanguardia tanto en apariencia como en calidad geométrica, y también demuestra sólidas capacidades de generalización entre conjuntos de datos. Estudios de abstracción extensos y análisis también validan la efectividad de nuestros métodos propuestos. El código y los modelos pre-entrenados están disponibles en https://gynjn.github.io/selfsplat/
English
We propose SelfSplat, a novel 3D Gaussian Splatting model designed to perform pose-free and 3D prior-free generalizable 3D reconstruction from unposed multi-view images. These settings are inherently ill-posed due to the lack of ground-truth data, learned geometric information, and the need to achieve accurate 3D reconstruction without finetuning, making it difficult for conventional methods to achieve high-quality results. Our model addresses these challenges by effectively integrating explicit 3D representations with self-supervised depth and pose estimation techniques, resulting in reciprocal improvements in both pose accuracy and 3D reconstruction quality. Furthermore, we incorporate a matching-aware pose estimation network and a depth refinement module to enhance geometry consistency across views, ensuring more accurate and stable 3D reconstructions. To present the performance of our method, we evaluated it on large-scale real-world datasets, including RealEstate10K, ACID, and DL3DV. SelfSplat achieves superior results over previous state-of-the-art methods in both appearance and geometry quality, also demonstrates strong cross-dataset generalization capabilities. Extensive ablation studies and analysis also validate the effectiveness of our proposed methods. Code and pretrained models are available at https://gynjn.github.io/selfsplat/

Summary

AI-Generated Summary

PDF152November 30, 2024