DROID-SLAM in Natura Selvaggia
DROID-SLAM in the Wild
March 19, 2026
Autori: Moyang Li, Zihan Zhu, Marc Pollefeys, Daniel Barath
cs.AI
Abstract
Presentiamo un sistema SLAM RGB robusto e in tempo reale che gestisce ambienti dinamici sfruttando un Bundle Adjustment differenziabile e consapevole dell'incertezza. I metodi SLAM tradizionali assumono tipicamente scene statiche, portando a fallimenti nel tracking in presenza di movimento. I recenti approcci SLAM dinamici tentano di affrontare questa sfida utilizzando prior dinamici predefiniti o mappature consapevoli dell'incertezza, ma rimangono limitati quando confrontati con oggetti dinamici sconosciuti o scene altamente disordinate dove la mappatura geometrica diventa inaffidabile. Al contrario, il nostro metodo stima l'incertezza per pixel sfruttando l'inconsistenza delle caratteristiche visive multi-vista, consentendo un tracking e una ricostruzione robusti anche in ambienti reali. Il sistema proposto raggiunge pose della camera e geometrie della scene allo stato dell'arte in scenari dinamici e disordinati, funzionando in tempo reale a circa 10 FPS. Il codice e i dataset sono disponibili all'indirizzo https://github.com/MoyangLi00/DROID-W.git.
English
We present a robust, real-time RGB SLAM system that handles dynamic environments by leveraging differentiable Uncertainty-aware Bundle Adjustment. Traditional SLAM methods typically assume static scenes, leading to tracking failures in the presence of motion. Recent dynamic SLAM approaches attempt to address this challenge using predefined dynamic priors or uncertainty-aware mapping, but they remain limited when confronted with unknown dynamic objects or highly cluttered scenes where geometric mapping becomes unreliable. In contrast, our method estimates per-pixel uncertainty by exploiting multi-view visual feature inconsistency, enabling robust tracking and reconstruction even in real-world environments. The proposed system achieves state-of-the-art camera poses and scene geometry in cluttered dynamic scenarios while running in real time at around 10 FPS. Code and datasets are available at https://github.com/MoyangLi00/DROID-W.git.