M^3: Emparejamiento Denso se Encuentra con Modelos Fundacionales Multi-Vista para SLAM Monocular con Gaussian Splatting
M^3: Dense Matching Meets Multi-View Foundation Models for Monocular Gaussian Splatting SLAM
March 17, 2026
Autores: Kerui Ren, Guanghao Li, Changjian Jiang, Yingxiang Xu, Tao Lu, Linning Xu, Junting Dong, Jiangmiao Pang, Mulin Yu, Bo Dai
cs.AI
Resumen
La reconstrucción en tiempo real a partir de vídeo monocular no calibrado sigue siendo un desafío, ya que requiere tanto una estimación de pose de alta precisión como un refinamiento en línea computacionalmente eficiente en entornos dinámicos. Si bien el acoplamiento de modelos fundacionales 3D con frameworks SLAM es un paradigma prometedor, persiste un cuello de botella crítico: la mayoría de los modelos fundacionales multivisión estiman las poses de manera secuencial, produciendo correspondencias a nivel de píxel que carecen de la precisión necesaria para una optimización geométrica rigurosa. Para abordar esto, presentamos M^3, que aumenta el modelo fundacional de multivisión con un cabezal de correspondencia dedicado para facilitar correspondencias densas de grano fino y lo integra en un SLAM robusto basado en *Gaussian Splatting* monocular. M^3 mejora aún más la estabilidad del seguimiento mediante la incorporación de supresión de áreas dinámicas y alineación intrínseca de inferencia cruzada. Experimentos exhaustivos en diversos benchmarks de interiores y exteriores demuestran una precisión de vanguardia tanto en la estimación de pose como en la reconstrucción de escenas. Notablemente, M^3 reduce el RMSE del ATE en un 64,3% en comparación con VGGT-SLAM 2.0 y supera a ARTDECO en 2,11 dB de PSNR en el conjunto de datos ScanNet++.
English
Streaming reconstruction from uncalibrated monocular video remains challenging, as it requires both high-precision pose estimation and computationally efficient online refinement in dynamic environments. While coupling 3D foundation models with SLAM frameworks is a promising paradigm, a critical bottleneck persists: most multi-view foundation models estimate poses in a feed-forward manner, yielding pixel-level correspondences that lack the requisite precision for rigorous geometric optimization. To address this, we present M^3, which augments the Multi-view foundation model with a dedicated Matching head to facilitate fine-grained dense correspondences and integrates it into a robust Monocular Gaussian Splatting SLAM. M^3 further enhances tracking stability by incorporating dynamic area suppression and cross-inference intrinsic alignment. Extensive experiments on diverse indoor and outdoor benchmarks demonstrate state-of-the-art accuracy in both pose estimation and scene reconstruction. Notably, M^3 reduces ATE RMSE by 64.3% compared to VGGT-SLAM 2.0 and outperforms ARTDECO by 2.11 dB in PSNR on the ScanNet++ dataset.