DROID-SLAM:実環境におけるSLAM
DROID-SLAM in the Wild
March 19, 2026
著者: Moyang Li, Zihan Zhu, Marc Pollefeys, Daniel Barath
cs.AI
要旨
本論文では、微分可能な不確実性考慮バンドル調整を活用し、動的環境に対応するロバストなリアルタイムRGB SLAMシステムを提案する。従来のSLAM手法は典型的に静的なシーンを想定しており、動きが存在する場合には追跡失敗に陥りやすい。近年の動的SLAM手法は、事前定義された動的事前情報や不確実性考慮マッピングを用いてこの課題への対応を試みているが、未知の動的オブジェクトや、幾何学的マッピングが信頼できなくなる高度に雑多なシーンに直面した場合には限界がある。対照的に、本手法はマルチビュー視覚的特徴の不整合性を利用して画素単位の不確実性を推定し、実世界環境においてもロバストな追跡と再構成を可能にする。提案システムは、雑多な動的シナリオにおいて、約10 FPSでリアルタイム動作しながら、最先端のカメラ姿勢とシーン幾何学を実現する。コードとデータセットはhttps://github.com/MoyangLi00/DROID-W.gitで公開されている。
English
We present a robust, real-time RGB SLAM system that handles dynamic environments by leveraging differentiable Uncertainty-aware Bundle Adjustment. Traditional SLAM methods typically assume static scenes, leading to tracking failures in the presence of motion. Recent dynamic SLAM approaches attempt to address this challenge using predefined dynamic priors or uncertainty-aware mapping, but they remain limited when confronted with unknown dynamic objects or highly cluttered scenes where geometric mapping becomes unreliable. In contrast, our method estimates per-pixel uncertainty by exploiting multi-view visual feature inconsistency, enabling robust tracking and reconstruction even in real-world environments. The proposed system achieves state-of-the-art camera poses and scene geometry in cluttered dynamic scenarios while running in real time at around 10 FPS. Code and datasets are available at https://github.com/MoyangLi00/DROID-W.git.