ChatPaper.aiChatPaper

WildGS-SLAM: 動的環境における単眼ガウススプラッティングSLAM

WildGS-SLAM: Monocular Gaussian Splatting SLAM in Dynamic Environments

April 4, 2025
著者: Jianhao Zheng, Zihan Zhu, Valentin Bieri, Marc Pollefeys, Songyou Peng, Iro Armeni
cs.AI

要旨

本論文では、不確実性を考慮した幾何学的マッピングを活用することで動的環境に対応可能な、堅牢かつ効率的な単眼RGB SLAMシステム「WildGS-SLAM」を提案します。従来のSLAMシステムが静的なシーンを前提としているのに対し、本手法は深度と不確実性情報を統合し、移動物体が存在する状況下でのトラッキング、マッピング、レンダリング性能を向上させます。浅い多層パーセプトロンとDINOv2特徴量によって予測される不確実性マップを導入し、トラッキングとマッピングの両方において動的物体の除去をガイドします。この不確実性マップは、密なバンドル調整とガウスマップ最適化を強化し、再構成精度を向上させます。本システムは複数のデータセットで評価され、アーティファクトのないビュー合成を実現します。結果は、WildGS-SLAMが最先端の手法と比較して動的環境において優れた性能を発揮することを示しています。
English
We present WildGS-SLAM, a robust and efficient monocular RGB SLAM system designed to handle dynamic environments by leveraging uncertainty-aware geometric mapping. Unlike traditional SLAM systems, which assume static scenes, our approach integrates depth and uncertainty information to enhance tracking, mapping, and rendering performance in the presence of moving objects. We introduce an uncertainty map, predicted by a shallow multi-layer perceptron and DINOv2 features, to guide dynamic object removal during both tracking and mapping. This uncertainty map enhances dense bundle adjustment and Gaussian map optimization, improving reconstruction accuracy. Our system is evaluated on multiple datasets and demonstrates artifact-free view synthesis. Results showcase WildGS-SLAM's superior performance in dynamic environments compared to state-of-the-art methods.

Summary

AI-Generated Summary

PDF103April 10, 2025