ChatPaper.aiChatPaper

NAVSIM : Simulation et Benchmarking Non Réactifs de Véhicules Autonomes Basés sur les Données

NAVSIM: Data-Driven Non-Reactive Autonomous Vehicle Simulation and Benchmarking

June 21, 2024
Auteurs: Daniel Dauner, Marcel Hallgarten, Tianyu Li, Xinshuo Weng, Zhiyu Huang, Zetong Yang, Hongyang Li, Igor Gilitschenski, Boris Ivanovic, Marco Pavone, Andreas Geiger, Kashyap Chitta
cs.AI

Résumé

L'évaluation des politiques de conduite basées sur la vision présente des défis importants. D'un côté, l'évaluation en boucle ouverte avec des données réelles est simple, mais ces résultats ne reflètent pas les performances en boucle fermée. De l'autre, l'évaluation en boucle fermée est possible en simulation, mais elle est difficile à mettre à l'échelle en raison de ses exigences computationnelles importantes. De plus, les simulateurs disponibles aujourd'hui présentent un écart de domaine important par rapport aux données réelles. Cela a entraîné une incapacité à tirer des conclusions claires de l'ensemble croissant de recherches sur la conduite autonome de bout en bout. Dans cet article, nous présentons NAVSIM, un compromis entre ces paradigmes d'évaluation, où nous utilisons de grands ensembles de données en combinaison avec un simulateur non réactif pour permettre un benchmarking à grande échelle dans le monde réel. Plus précisément, nous collectons des métriques basées sur la simulation, telles que la progression et le temps avant collision, en déroulant des abstractions en vue aérienne des scènes de test pour un horizon de simulation court. Notre simulation est non réactive, c'est-à-dire que la politique évaluée et l'environnement n'influencent pas mutuellement. Comme nous le démontrons empiriquement, ce découplage permet le calcul de métriques en boucle ouverte tout en étant mieux aligné avec les évaluations en boucle fermée que les erreurs de déplacement traditionnelles. NAVSIM a permis l'organisation d'un nouveau concours tenu à CVPR 2024, où 143 équipes ont soumis 463 entrées, aboutissant à plusieurs nouvelles conclusions. Sur un large ensemble de scénarios difficiles, nous observons que des méthodes simples avec des exigences de calcul modérées, comme TransFuser, peuvent rivaliser avec les architectures récentes de conduite de bout en bout à grande échelle, telles que UniAD. Notre cadre modulaire peut potentiellement être étendu avec de nouveaux ensembles de données, des stratégies de curation de données et des métriques, et sera continuellement maintenu pour accueillir de futurs défis. Notre code est disponible à l'adresse https://github.com/autonomousvision/navsim.
English
Benchmarking vision-based driving policies is challenging. On one hand, open-loop evaluation with real data is easy, but these results do not reflect closed-loop performance. On the other, closed-loop evaluation is possible in simulation, but is hard to scale due to its significant computational demands. Further, the simulators available today exhibit a large domain gap to real data. This has resulted in an inability to draw clear conclusions from the rapidly growing body of research on end-to-end autonomous driving. In this paper, we present NAVSIM, a middle ground between these evaluation paradigms, where we use large datasets in combination with a non-reactive simulator to enable large-scale real-world benchmarking. Specifically, we gather simulation-based metrics, such as progress and time to collision, by unrolling bird's eye view abstractions of the test scenes for a short simulation horizon. Our simulation is non-reactive, i.e., the evaluated policy and environment do not influence each other. As we demonstrate empirically, this decoupling allows open-loop metric computation while being better aligned with closed-loop evaluations than traditional displacement errors. NAVSIM enabled a new competition held at CVPR 2024, where 143 teams submitted 463 entries, resulting in several new insights. On a large set of challenging scenarios, we observe that simple methods with moderate compute requirements such as TransFuser can match recent large-scale end-to-end driving architectures such as UniAD. Our modular framework can potentially be extended with new datasets, data curation strategies, and metrics, and will be continually maintained to host future challenges. Our code is available at https://github.com/autonomousvision/navsim.

Summary

AI-Generated Summary

PDF51November 29, 2024