ChatPaper.aiChatPaper

CaRL: シンプルな報酬関数を用いたスケーラブルな計画ポリシーの学習

CaRL: Learning Scalable Planning Policies with Simple Rewards

April 24, 2025
著者: Bernhard Jaeger, Daniel Dauner, Jens Beißwenger, Simon Gerstenecker, Kashyap Chitta, Andreas Geiger
cs.AI

要旨

自動運転における特権的プランニングのための強化学習(RL)を調査する。このタスクにおける最先端のアプローチはルールベースであるが、これらの手法はロングテールにスケールしない。一方、RLはスケーラブルであり、模倣学習のような誤差の蓄積に悩まされない。現代の運転用RLアプローチでは、進行度、位置、方向などの複数の個別報酬を合計した複雑な形状の報酬が使用されている。我々は、ミニバッチサイズを増加させた場合、PPOがこれらの報酬の人気のあるバージョンを最適化できないことを示し、これがこれらのアプローチのスケーラビリティを制限していることを明らかにした。代わりに、主に単一の直感的な報酬項、すなわちルート完了を最適化する新しい報酬設計を提案する。違反はエピソードを終了させるか、ルート完了を乗算的に減少させることでペナルティを与える。我々は、このシンプルな報酬で訓練された場合、PPOがより高いミニバッチサイズでうまくスケールし、パフォーマンスが向上することを発見した。大きなミニバッチサイズでの訓練は、分散データ並列処理による効率的なスケーリングを可能にする。我々は、単一の8-GPUノードでPPOをCARLAで300Mサンプル、nuPlanで500Mサンプルにスケールした。結果として得られたモデルは、CARLA longest6 v2ベンチマークで64 DSを達成し、より複雑な報酬を持つ他のRL手法を大きく上回った。CARLAでの使用から最小限の適応のみを必要とする同じ手法は、nuPlanにおいても最良の学習ベースのアプローチである。Val14ベンチマークでは、非反応型交通で91.3、反応型交通で90.6のスコアを記録し、従来の研究よりも一桁高速である。
English
We investigate reinforcement learning (RL) for privileged planning in autonomous driving. State-of-the-art approaches for this task are rule-based, but these methods do not scale to the long tail. RL, on the other hand, is scalable and does not suffer from compounding errors like imitation learning. Contemporary RL approaches for driving use complex shaped rewards that sum multiple individual rewards, \eg~progress, position, or orientation rewards. We show that PPO fails to optimize a popular version of these rewards when the mini-batch size is increased, which limits the scalability of these approaches. Instead, we propose a new reward design based primarily on optimizing a single intuitive reward term: route completion. Infractions are penalized by terminating the episode or multiplicatively reducing route completion. We find that PPO scales well with higher mini-batch sizes when trained with our simple reward, even improving performance. Training with large mini-batch sizes enables efficient scaling via distributed data parallelism. We scale PPO to 300M samples in CARLA and 500M samples in nuPlan with a single 8-GPU node. The resulting model achieves 64 DS on the CARLA longest6 v2 benchmark, outperforming other RL methods with more complex rewards by a large margin. Requiring only minimal adaptations from its use in CARLA, the same method is the best learning-based approach on nuPlan. It scores 91.3 in non-reactive and 90.6 in reactive traffic on the Val14 benchmark while being an order of magnitude faster than prior work.
PDF32May 4, 2025