NaviDriveVLM: Разделение высокоуровневого логического вывода и планирования траектории для автономного вождения
NaviDriveVLM: Decoupling High-Level Reasoning and Motion Planning for Autonomous Driving
March 9, 2026
Авторы: Ximeng Tao, Pardis Taghavi, Dimitar Filev, Reza Langari, Gaurav Pandey
cs.AI
Аннотация
Визуально-языковые модели (VLM) стали перспективным направлением для сквозного автономного вождения, объединяя визуальные наблюдения, контекст вождения и языковые рассуждения. Однако существующие системы на основе VLM сталкиваются с компромиссом между высокоуровневыми рассуждениями и планированием траектории: крупные модели обеспечивают глубокое семантическое понимание, но их адаптация для точного управления дорогостояща, тогда как небольшие VLM-модели можно эффективно дообучать, но они часто демонстрируют более слабые способности к рассуждению. Мы предлагаем NaviDriveVLM — развязанную архитектуру, которая разделяет рассуждения и генерацию действий с помощью крупномасштабного Навигатора и легковесного Обучаемого Водителя. Такая конструкция сохраняет способность к рассуждениям, снижает стоимость обучения и предоставляет явное интерпретируемое промежуточное представление для последующего планирования. Эксперименты на базе nuScenes показывают, что NaviDriveVLM превосходит крупные VLM-базисы в сквозном планировании траектории.
English
Vision-language models (VLMs) have emerged as a promising direction for end-to-end autonomous driving (AD) by jointly modeling visual observations, driving context, and language-based reasoning. However, existing VLM-based systems face a trade-off between high-level reasoning and motion planning: large models offer strong semantic understanding but are costly to adapt for precise control, whereas small VLM models can be fine-tuned efficiently but often exhibit weaker reasoning. We propose NaviDriveVLM, a decoupled framework that separates reasoning from action generation using a large-scale Navigator and a lightweight trainable Driver. This design preserves reasoning ability, reduces training cost, and provides an explicit interpretable intermediate representation for downstream planning. Experiments on the nuScenes benchmark show that NaviDriveVLM outperforms large VLM baselines in end-to-end motion planning.