ChatPaper.aiChatPaper

SelfSplat: Pose-frei und 3D-Prior-frei Generalisierbares 3D-Gauß'sches Splatting

SelfSplat: Pose-Free and 3D Prior-Free Generalizable 3D Gaussian Splatting

November 26, 2024
Autoren: Gyeongjin Kang, Jisang Yoo, Jihyeon Park, Seungtae Nam, Hyeonsoo Im, Sangheon Shin, Sangpil Kim, Eunbyung Park
cs.AI

Zusammenfassung

Wir schlagen SelfSplat vor, ein neuartiges 3D-Gauß'sches Splatting-Modell, das entwickelt wurde, um eine posenfreie und 3D-vorherfreie generalisierbare 3D-Rekonstruktion aus unposierten Multi-View-Bildern durchzuführen. Diese Einstellungen sind inhärent schlecht gestellt aufgrund des Mangels an Ground-Truth-Daten, erlernten geometrischen Informationen und der Notwendigkeit, eine genaue 3D-Rekonstruktion ohne Feinabstimmung zu erreichen, was es für konventionelle Methoden schwierig macht, qualitativ hochwertige Ergebnisse zu erzielen. Unser Modell begegnet diesen Herausforderungen, indem es explizite 3D-Repräsentationen effektiv mit selbstüberwachter Tiefen- und Posenabschätzungstechniken integriert, was zu wechselseitigen Verbesserungen sowohl bei der Posen-Genauigkeit als auch bei der 3D-Rekonstruktionsqualität führt. Darüber hinaus integrieren wir ein Matching-bewusstes Posenabschätzungssystem und ein Tiefenverfeinerungsmodul, um die geometrische Konsistenz über Ansichten hinweg zu verbessern, was genauere und stabilere 3D-Rekonstruktionen gewährleistet. Um die Leistung unserer Methode zu präsentieren, haben wir sie an umfangreichen realen Datensätzen wie RealEstate10K, ACID und DL3DV evaluiert. SelfSplat erzielt überlegene Ergebnisse gegenüber früheren State-of-the-Art-Methoden sowohl in Erscheinung als auch in geometrischer Qualität und zeigt auch starke Generalisierungsfähigkeiten über verschiedene Datensätze hinweg. Umfangreiche Ablationsstudien und Analysen bestätigen ebenfalls die Wirksamkeit unserer vorgeschlagenen Methoden. Der Code und die vortrainierten Modelle sind unter https://gynjn.github.io/selfsplat/ verfügbar.
English
We propose SelfSplat, a novel 3D Gaussian Splatting model designed to perform pose-free and 3D prior-free generalizable 3D reconstruction from unposed multi-view images. These settings are inherently ill-posed due to the lack of ground-truth data, learned geometric information, and the need to achieve accurate 3D reconstruction without finetuning, making it difficult for conventional methods to achieve high-quality results. Our model addresses these challenges by effectively integrating explicit 3D representations with self-supervised depth and pose estimation techniques, resulting in reciprocal improvements in both pose accuracy and 3D reconstruction quality. Furthermore, we incorporate a matching-aware pose estimation network and a depth refinement module to enhance geometry consistency across views, ensuring more accurate and stable 3D reconstructions. To present the performance of our method, we evaluated it on large-scale real-world datasets, including RealEstate10K, ACID, and DL3DV. SelfSplat achieves superior results over previous state-of-the-art methods in both appearance and geometry quality, also demonstrates strong cross-dataset generalization capabilities. Extensive ablation studies and analysis also validate the effectiveness of our proposed methods. Code and pretrained models are available at https://gynjn.github.io/selfsplat/

Summary

AI-Generated Summary

PDF152November 30, 2024