M^3: Dichte Correspondentie Ontmoet Multi-View Foundation Modellen voor Monoculaire Gaussian Splatting SLAM
M^3: Dense Matching Meets Multi-View Foundation Models for Monocular Gaussian Splatting SLAM
March 17, 2026
Auteurs: Kerui Ren, Guanghao Li, Changjian Jiang, Yingxiang Xu, Tao Lu, Linning Xu, Junting Dong, Jiangmiao Pang, Mulin Yu, Bo Dai
cs.AI
Samenvatting
Streamingreconstructie op basis van ongecalibreerde monovideo blijft een uitdaging, omdat het zowel hoogwaardige pose-schatting als computationeel efficiënte online-verfijning in dynamische omgevingen vereist. Hoewel de koppeling van 3D-foundationmodellen aan SLAM-frameworks een veelbelovend paradigma is, blijft er een kritieke bottleneck: de meeste multi-view foundationmodellen schatten poses op een feed-forward-manier, wat pixel-level correspondenties oplevert die de vereiste precisie voor rigoureuze geometrische optimalisatie missen. Om dit aan te pakken presenteren we M^3, dat het Multi-view foundationmodel uitbreidt met een speciale Matching-head om fijnmazige dichte correspondenties te faciliteren en dit integreert in een robuuste Monocular Gaussian Splatting SLAM. M^3 verbetert de trackingstabiliteit verder door dynamische gebiedsonderdrukking en kruis-inferentie-intrinsieke uitlijning. Uitgebreide experimenten op diverse indoor- en outdoor-benchmarks demonstreren state-of-the-art nauwkeurigheid in zowel pose-schatting als scènereconstructie. Opmerkelijk is dat M^3 de ATE RMSE met 64,3% vermindert in vergelijking met VGGT-SLAM 2.0 en ARTDECO met 2,11 dB overtreft in PSNR op de ScanNet++ dataset.
English
Streaming reconstruction from uncalibrated monocular video remains challenging, as it requires both high-precision pose estimation and computationally efficient online refinement in dynamic environments. While coupling 3D foundation models with SLAM frameworks is a promising paradigm, a critical bottleneck persists: most multi-view foundation models estimate poses in a feed-forward manner, yielding pixel-level correspondences that lack the requisite precision for rigorous geometric optimization. To address this, we present M^3, which augments the Multi-view foundation model with a dedicated Matching head to facilitate fine-grained dense correspondences and integrates it into a robust Monocular Gaussian Splatting SLAM. M^3 further enhances tracking stability by incorporating dynamic area suppression and cross-inference intrinsic alignment. Extensive experiments on diverse indoor and outdoor benchmarks demonstrate state-of-the-art accuracy in both pose estimation and scene reconstruction. Notably, M^3 reduces ATE RMSE by 64.3% compared to VGGT-SLAM 2.0 and outperforms ARTDECO by 2.11 dB in PSNR on the ScanNet++ dataset.