ChatPaper.aiChatPaper

CaRL: Обучение масштабируемых стратегий планирования с использованием простых функций вознаграждения

CaRL: Learning Scalable Planning Policies with Simple Rewards

April 24, 2025
Авторы: Bernhard Jaeger, Daniel Dauner, Jens Beißwenger, Simon Gerstenecker, Kashyap Chitta, Andreas Geiger
cs.AI

Аннотация

Мы исследуем обучение с подкреплением (RL) для привилегированного планирования в автономном вождении. Современные подходы к этой задаче основаны на правилах, но такие методы не масштабируются на длинный хвост распределения. RL, с другой стороны, масштабируем и не страдает от накопления ошибок, как обучение с подражанием. Современные RL-подходы для вождения используют сложные составные вознаграждения, суммирующие несколько отдельных вознаграждений, например, за прогресс, позицию или ориентацию. Мы показываем, что PPO не может оптимизировать популярную версию этих вознаграждений при увеличении размера мини-батча, что ограничивает масштабируемость таких подходов. Вместо этого мы предлагаем новый дизайн вознаграждения, основанный в первую очередь на оптимизации одного интуитивного термина: завершения маршрута. Нарушения штрафуются завершением эпизода или мультипликативным уменьшением завершения маршрута. Мы обнаруживаем, что PPO хорошо масштабируется с большими размерами мини-батчей при обучении с нашим простым вознаграждением, даже улучшая производительность. Обучение с большими размерами мини-батчей позволяет эффективно масштабироваться за счет распределенного параллелизма данных. Мы масштабируем PPO до 300 миллионов выборок в CARLA и 500 миллионов выборок в nuPlan с использованием одного узла с 8 GPU. Полученная модель достигает 64 DS на бенчмарке CARLA longest6 v2, значительно превосходя другие RL-методы с более сложными вознаграждениями. Требуя лишь минимальных адаптаций по сравнению с использованием в CARLA, тот же метод становится лучшим подходом на основе обучения в nuPlan. Он набирает 91.3 в нереактивном и 90.6 в реактивном трафике на бенчмарке Val14, при этом работая на порядок быстрее, чем предыдущие работы.
English
We investigate reinforcement learning (RL) for privileged planning in autonomous driving. State-of-the-art approaches for this task are rule-based, but these methods do not scale to the long tail. RL, on the other hand, is scalable and does not suffer from compounding errors like imitation learning. Contemporary RL approaches for driving use complex shaped rewards that sum multiple individual rewards, \eg~progress, position, or orientation rewards. We show that PPO fails to optimize a popular version of these rewards when the mini-batch size is increased, which limits the scalability of these approaches. Instead, we propose a new reward design based primarily on optimizing a single intuitive reward term: route completion. Infractions are penalized by terminating the episode or multiplicatively reducing route completion. We find that PPO scales well with higher mini-batch sizes when trained with our simple reward, even improving performance. Training with large mini-batch sizes enables efficient scaling via distributed data parallelism. We scale PPO to 300M samples in CARLA and 500M samples in nuPlan with a single 8-GPU node. The resulting model achieves 64 DS on the CARLA longest6 v2 benchmark, outperforming other RL methods with more complex rewards by a large margin. Requiring only minimal adaptations from its use in CARLA, the same method is the best learning-based approach on nuPlan. It scores 91.3 in non-reactive and 90.6 in reactive traffic on the Val14 benchmark while being an order of magnitude faster than prior work.
PDF32May 4, 2025