ChatPaper.aiChatPaper

DROID-SLAM в естественных условиях

DROID-SLAM in the Wild

March 19, 2026
Авторы: Moyang Li, Zihan Zhu, Marc Pollefeys, Daniel Barath
cs.AI

Аннотация

Мы представляем надежную систему RGB SLAM в реальном времени, которая обрабатывает динамические среды с использованием дифференцируемого бандл-аджъстмента с учетом неопределенности. Традиционные методы SLAM обычно предполагают статичность сцены, что приводит к сбоям трекинга при наличии движения. Современные подходы к динамическому SLAM пытаются решить эту проблему, используя заранее заданные динамические априорные данные или картографирование с учетом неопределенности, но они остаются ограниченными при столкновении с неизвестными динамическими объектами или сильно загроможденными сценами, где геометрическое картографирование становится ненадежным. В отличие от них, наш метод оценивает неопределенность для каждого пикселя, используя противоречивость визуальных признаков в нескольких проекциях, что обеспечивает надежный трекинг и реконструкцию даже в реальных условиях. Предложенная система достигает передовых показателей точности оценки поз камеры и геометрии сцены в загроможденных динамических сценариях, работая в реальном времени со скоростью около 10 кадров в секунду. Код и наборы данных доступны по адресу https://github.com/MoyangLi00/DROID-W.git.
English
We present a robust, real-time RGB SLAM system that handles dynamic environments by leveraging differentiable Uncertainty-aware Bundle Adjustment. Traditional SLAM methods typically assume static scenes, leading to tracking failures in the presence of motion. Recent dynamic SLAM approaches attempt to address this challenge using predefined dynamic priors or uncertainty-aware mapping, but they remain limited when confronted with unknown dynamic objects or highly cluttered scenes where geometric mapping becomes unreliable. In contrast, our method estimates per-pixel uncertainty by exploiting multi-view visual feature inconsistency, enabling robust tracking and reconstruction even in real-world environments. The proposed system achieves state-of-the-art camera poses and scene geometry in cluttered dynamic scenarios while running in real time at around 10 FPS. Code and datasets are available at https://github.com/MoyangLi00/DROID-W.git.
PDF31March 24, 2026