ChatPaper.aiChatPaper

M^3: Dichte Bildzuordnung trifft auf Multi-View-Foundation-Modelle für monokulares Gauß-Splatting-SLAM

M^3: Dense Matching Meets Multi-View Foundation Models for Monocular Gaussian Splatting SLAM

March 17, 2026
Autoren: Kerui Ren, Guanghao Li, Changjian Jiang, Yingxiang Xu, Tao Lu, Linning Xu, Junting Dong, Jiangmiao Pang, Mulin Yu, Bo Dai
cs.AI

Zusammenfassung

Die Streaming-Rekonstruktion aus unkalibrierten monokularen Videos bleibt eine Herausforderung, da sie sowohl hochpräzise Pose-Schätzung als auch recheneffiziente Online-Verfeinerung in dynamischen Umgebungen erfordert. Obwohl die Kopplung von 3D-Foundation-Modellen mit SLAM-Frameworks ein vielversprechendes Paradigma darstellt, besteht ein kritischer Engpass: Die meisten Multi-View-Foundation-Modelle schätzen Posen in einem vorwärtsgerichteten Verfahren und liefern so Pixel-korrespondenzen, denen die für eine rigorose geometrische Optimierung erforderliche Präzision fehlt. Um dies zu adressieren, stellen wir M^3 vor, das das Multi-View-Foundation-Modell um einen dedizierten Matching-Kopf erweitert, um feinkörnige dichte Korrespondenzen zu ermöglichen, und es in ein robustes monokulares Gaussian-Splatting-SLAM integriert. M^3 verbessert die Tracking-Stabilität weiter durch die Einbeziehung von dynamischer Bereichsunterdrückung und kreuzschließender intrinsischer Ausrichtung. Umfangreiche Experimente auf verschiedenen Indoor- und Outdoor-Benchmarks demonstrieren state-of-the-art Genauigkeit sowohl bei der Pose-Schätzung als auch bei der Szenenrekonstruktion. Bemerkenswerterweise reduziert M^3 den ATE-RMSE um 64,3 % im Vergleich zu VGGT-SLAM 2.0 und übertrifft ARTDECO auf dem ScanNet++-Datensatz um 2,11 dB im PSNR.
English
Streaming reconstruction from uncalibrated monocular video remains challenging, as it requires both high-precision pose estimation and computationally efficient online refinement in dynamic environments. While coupling 3D foundation models with SLAM frameworks is a promising paradigm, a critical bottleneck persists: most multi-view foundation models estimate poses in a feed-forward manner, yielding pixel-level correspondences that lack the requisite precision for rigorous geometric optimization. To address this, we present M^3, which augments the Multi-view foundation model with a dedicated Matching head to facilitate fine-grained dense correspondences and integrates it into a robust Monocular Gaussian Splatting SLAM. M^3 further enhances tracking stability by incorporating dynamic area suppression and cross-inference intrinsic alignment. Extensive experiments on diverse indoor and outdoor benchmarks demonstrate state-of-the-art accuracy in both pose estimation and scene reconstruction. Notably, M^3 reduces ATE RMSE by 64.3% compared to VGGT-SLAM 2.0 and outperforms ARTDECO by 2.11 dB in PSNR on the ScanNet++ dataset.
PDF92March 19, 2026