야생 환경에서의 DROID-SLAM
DROID-SLAM in the Wild
March 19, 2026
저자: Moyang Li, Zihan Zhu, Marc Pollefeys, Daniel Barath
cs.AI
초록
기존 SLAM 방법론은 대개 정적 환경을 가정하므로 동적 요소가 존재할 때 추적 실패가 발생한다. 최근의 동적 SLAM 접근법은 사전 정의된 동적 사전 정보나 불확실성 인지 매핑을 통해 이러한 문제를 해결하려 시도하지만, 알려지지 않은 동적 객체나 기하학적 매핑이 신뢰하기 어려운 복잡한 환경에서는 한계를 보인다. 이에 반해 본 연구에서는 다중 시점 시각 특징 간 불일치성을 활용하여 픽셀 단위 불확실성을 추정함으로써 실제 환경에서도 견고한 추적 및 재구성이 가능한 시스템을 제안한다. 제안 시스템은 복잡한 동적 시나리오에서 최첨단 수준의 카메라 포즈 및 장면 기하구조를 실시간(약 10 FPS)으로 구현한다. 코드와 데이터셋은 https://github.com/MoyangLi00/DROID-W.git에서 확인할 수 있다.
English
We present a robust, real-time RGB SLAM system that handles dynamic environments by leveraging differentiable Uncertainty-aware Bundle Adjustment. Traditional SLAM methods typically assume static scenes, leading to tracking failures in the presence of motion. Recent dynamic SLAM approaches attempt to address this challenge using predefined dynamic priors or uncertainty-aware mapping, but they remain limited when confronted with unknown dynamic objects or highly cluttered scenes where geometric mapping becomes unreliable. In contrast, our method estimates per-pixel uncertainty by exploiting multi-view visual feature inconsistency, enabling robust tracking and reconstruction even in real-world environments. The proposed system achieves state-of-the-art camera poses and scene geometry in cluttered dynamic scenarios while running in real time at around 10 FPS. Code and datasets are available at https://github.com/MoyangLi00/DROID-W.git.