ChatPaper.aiChatPaper

SelfSplat: Houdingvrij en 3D Vooraf Vrij Algemeen Toepasbaar 3D Gaussisch Splatting

SelfSplat: Pose-Free and 3D Prior-Free Generalizable 3D Gaussian Splatting

November 26, 2024
Auteurs: Gyeongjin Kang, Jisang Yoo, Jihyeon Park, Seungtae Nam, Hyeonsoo Im, Sangheon Shin, Sangpil Kim, Eunbyung Park
cs.AI

Samenvatting

Wij stellen SelfSplat voor, een nieuw 3D Gaussisch Splatting model dat is ontworpen om pose-vrije en 3D-voorafgaande-vrije generaliseerbare 3D-reconstructie uit ongeposeerde multi-view afbeeldingen uit te voeren. Deze instellingen zijn inherent slecht bepaald vanwege het ontbreken van grondwaarheidsgegevens, geleerde geometrische informatie, en de noodzaak om nauwkeurige 3D-reconstructie te bereiken zonder fine-tuning, waardoor het moeilijk is voor conventionele methoden om hoogwaardige resultaten te behalen. Ons model pakt deze uitdagingen aan door expliciete 3D-representaties effectief te integreren met zelf-toezicht diepte- en pose schattingstechnieken, resulterend in wederzijdse verbeteringen in zowel pose nauwkeurigheid als 3D-reconstructiekwaliteit. Bovendien nemen we een matching-bewuste pose schattingsnetwerk en een diepte-verfijningsmodule op om geometrische consistentie over weergaven te verbeteren, wat zorgt voor meer nauwkeurige en stabiele 3D-reconstructies. Om de prestaties van onze methode te presenteren, hebben we deze geëvalueerd op grootschalige real-world datasets, waaronder RealEstate10K, ACID, en DL3DV. SelfSplat behaalt superieure resultaten ten opzichte van eerdere state-of-the-art methoden in zowel uiterlijk als geometrische kwaliteit, en toont ook sterke generalisatiecapaciteiten over datasets heen. Uitgebreide ablatie studies en analyses bevestigen ook de effectiviteit van onze voorgestelde methoden. Code en vooraf getrainde modellen zijn beschikbaar op https://gynjn.github.io/selfsplat/
English
We propose SelfSplat, a novel 3D Gaussian Splatting model designed to perform pose-free and 3D prior-free generalizable 3D reconstruction from unposed multi-view images. These settings are inherently ill-posed due to the lack of ground-truth data, learned geometric information, and the need to achieve accurate 3D reconstruction without finetuning, making it difficult for conventional methods to achieve high-quality results. Our model addresses these challenges by effectively integrating explicit 3D representations with self-supervised depth and pose estimation techniques, resulting in reciprocal improvements in both pose accuracy and 3D reconstruction quality. Furthermore, we incorporate a matching-aware pose estimation network and a depth refinement module to enhance geometry consistency across views, ensuring more accurate and stable 3D reconstructions. To present the performance of our method, we evaluated it on large-scale real-world datasets, including RealEstate10K, ACID, and DL3DV. SelfSplat achieves superior results over previous state-of-the-art methods in both appearance and geometry quality, also demonstrates strong cross-dataset generalization capabilities. Extensive ablation studies and analysis also validate the effectiveness of our proposed methods. Code and pretrained models are available at https://gynjn.github.io/selfsplat/
PDF152December 14, 2025