ChatPaper.aiChatPaper

DROID-SLAM in het Wild

DROID-SLAM in the Wild

March 19, 2026
Auteurs: Moyang Li, Zihan Zhu, Marc Pollefeys, Daniel Barath
cs.AI

Samenvatting

Wij presenteren een robuust, realtime RGB SLAM-systeem dat dynamische omgevingen verwerkt door gebruik te maken van differentieerbare onzekerheidsbewuste bundelbepaling (Uncertainty-aware Bundle Adjustment). Traditionele SLAM-methoden gaan doorgaans uit van statische scènes, wat leidt tot trackingfouten bij beweging in de omgeving. Recente dynamische SLAM-benaderingen proberen deze uitdaging aan te pakken met vooraf gedefinieerde dynamische prioriteiten of onzekerheidsbewuste modellering, maar zij blijven beperkt bij onbekende dynamische objecten of sterk rommelige scènes waar geometrische modellering onbetrouwbaar wordt. In tegenstelling daarmee schat onze methode de onzekerheid per pixel door gebruik te maken van inconsistentie van visuele features in meerdere views, wat robuuste tracking en reconstructie mogelijk maakt, zelfs in real-world omgevingen. Het voorgestelde systeem behaalt state-of-the-art cameraposes en scènegeometrie in rommelige dynamische scenario's en functioneert in realtime met ongeveer 10 FPS. Code en datasets zijn beschikbaar op https://github.com/MoyangLi00/DROID-W.git.
English
We present a robust, real-time RGB SLAM system that handles dynamic environments by leveraging differentiable Uncertainty-aware Bundle Adjustment. Traditional SLAM methods typically assume static scenes, leading to tracking failures in the presence of motion. Recent dynamic SLAM approaches attempt to address this challenge using predefined dynamic priors or uncertainty-aware mapping, but they remain limited when confronted with unknown dynamic objects or highly cluttered scenes where geometric mapping becomes unreliable. In contrast, our method estimates per-pixel uncertainty by exploiting multi-view visual feature inconsistency, enabling robust tracking and reconstruction even in real-world environments. The proposed system achieves state-of-the-art camera poses and scene geometry in cluttered dynamic scenarios while running in real time at around 10 FPS. Code and datasets are available at https://github.com/MoyangLi00/DROID-W.git.
PDF42March 24, 2026