DROID-SLAM em Ambientes Não Controlados
DROID-SLAM in the Wild
March 19, 2026
Autores: Moyang Li, Zihan Zhu, Marc Pollefeys, Daniel Barath
cs.AI
Resumo
Apresentamos um sistema robusto de SLAM RGB em tempo real que lida com ambientes dinâmicos através da utilização de Ajustamento de Feixe com Consciência da Incerteza diferenciável. Os métodos tradicionais de SLAM geralmente assumem cenas estáticas, o que leva a falhas de rastreamento na presença de movimento. Abordagens recentes de SLAM dinâmico tentam resolver este desafio utilizando pré-definições dinâmicas prévias ou mapeamento com consciência da incerteza, mas permanecem limitadas quando confrontadas com objetos dinâmicos desconhecidos ou cenas altamente desordenadas onde o mapeamento geométrico se torna pouco fiável. Em contraste, o nosso método estima a incerteza por pixel através da exploração da inconsistência de características visuais multi-vista, permitindo um rastreamento e reconstrução robustos mesmo em ambientes do mundo real. O sistema proposto alcança poses de câmara e geometria de cena de última geração em cenários dinâmicos desordenados, funcionando em tempo real a aproximadamente 10 FPS. O código e conjuntos de dados estão disponíveis em https://github.com/MoyangLi00/DROID-W.git.
English
We present a robust, real-time RGB SLAM system that handles dynamic environments by leveraging differentiable Uncertainty-aware Bundle Adjustment. Traditional SLAM methods typically assume static scenes, leading to tracking failures in the presence of motion. Recent dynamic SLAM approaches attempt to address this challenge using predefined dynamic priors or uncertainty-aware mapping, but they remain limited when confronted with unknown dynamic objects or highly cluttered scenes where geometric mapping becomes unreliable. In contrast, our method estimates per-pixel uncertainty by exploiting multi-view visual feature inconsistency, enabling robust tracking and reconstruction even in real-world environments. The proposed system achieves state-of-the-art camera poses and scene geometry in cluttered dynamic scenarios while running in real time at around 10 FPS. Code and datasets are available at https://github.com/MoyangLi00/DROID-W.git.