DROID-SLAM in der Wildnis
DROID-SLAM in the Wild
March 19, 2026
Autoren: Moyang Li, Zihan Zhu, Marc Pollefeys, Daniel Barath
cs.AI
Zusammenfassung
Wir stellen ein robustes Echtzeit-RGB-SLAM-System vor, das dynamische Umgebungen durch den Einsatz von differenzierbarer, unsicherheitsbewusster Bündelblockausgleichung bewältigt. Herkömmliche SLAM-Methoden gehen typischerweise von statischen Szenen aus, was zu Tracking-Fehlern bei Bewegung führt. Neuere dynamische SLAM-Ansätze versuchen, diese Herausforderung durch vordefinierte dynamische Priori-Informationen oder unsicherheitsbewusste Kartierung zu lösen, bleiben jedoch begrenzt, wenn sie mit unbekannten dynamischen Objekten oder stark unübersichtlichen Szenen konfrontiert werden, in denen geometrische Kartierung unzuverlässig wird. Im Gegensatz dazu schätzt unsere Methode die Unsicherheit pro Pixel durch Ausnutzung von Mehrbild-Inkonsistenzen visueller Merkmale, was robustes Tracking und Rekonstruktion selbst in realen Umgebungen ermöglicht. Das vorgeschlagene System erreicht state-of-the-art Kameraposen und Szenengeometrie in unübersichtlichen dynamischen Szenarien bei Echtzeitbetrieb mit etwa 10 Bildern pro Sekunde. Code und Datensätze sind unter https://github.com/MoyangLi00/DROID-W.git verfügbar.
English
We present a robust, real-time RGB SLAM system that handles dynamic environments by leveraging differentiable Uncertainty-aware Bundle Adjustment. Traditional SLAM methods typically assume static scenes, leading to tracking failures in the presence of motion. Recent dynamic SLAM approaches attempt to address this challenge using predefined dynamic priors or uncertainty-aware mapping, but they remain limited when confronted with unknown dynamic objects or highly cluttered scenes where geometric mapping becomes unreliable. In contrast, our method estimates per-pixel uncertainty by exploiting multi-view visual feature inconsistency, enabling robust tracking and reconstruction even in real-world environments. The proposed system achieves state-of-the-art camera poses and scene geometry in cluttered dynamic scenarios while running in real time at around 10 FPS. Code and datasets are available at https://github.com/MoyangLi00/DROID-W.git.