CaRL: Apprendimento di politiche di pianificazione scalabili con ricompense semplici
CaRL: Learning Scalable Planning Policies with Simple Rewards
April 24, 2025
Autori: Bernhard Jaeger, Daniel Dauner, Jens Beißwenger, Simon Gerstenecker, Kashyap Chitta, Andreas Geiger
cs.AI
Abstract
Investighiamo l'apprendimento per rinforzo (RL) per la pianificazione privilegiata nella guida autonoma. Gli approcci all'avanguardia per questo compito sono basati su regole, ma questi metodi non scalano bene per casi complessi e rari. L'RL, d'altra parte, è scalabile e non soffre di errori cumulativi come l'apprendimento per imitazione. Gli approcci RL contemporanei per la guida utilizzano ricompense complesse che sommano più ricompense individuali, ad esempio ricompense per il progresso, la posizione o l'orientamento. Dimostriamo che PPO non riesce a ottimizzare una versione popolare di queste ricompense quando la dimensione del mini-batch viene aumentata, il che limita la scalabilità di questi approcci. Proponiamo invece un nuovo design della ricompensa basato principalmente sull'ottimizzazione di un singolo termine intuitivo: il completamento del percorso. Le infrazioni vengono penalizzate terminando l'episodio o riducendo moltiplicativamente il completamento del percorso. Troviamo che PPO scala bene con dimensioni maggiori del mini-batch quando addestrato con la nostra ricompensa semplice, migliorando persino le prestazioni. L'addestramento con grandi dimensioni del mini-batch consente una scalabilità efficiente tramite il parallelismo distribuito dei dati. Scaliamo PPO a 300M di campioni in CARLA e 500M di campioni in nuPlan con un singolo nodo a 8 GPU. Il modello risultante raggiunge 64 DS nel benchmark CARLA longest6 v2, superando di gran lunga altri metodi RL con ricompense più complesse. Richiedendo solo adattamenti minimi rispetto al suo utilizzo in CARLA, lo stesso metodo è il miglior approccio basato sull'apprendimento su nuPlan. Ottiene un punteggio di 91.3 nel traffico non reattivo e 90.6 nel traffico reattivo sul benchmark Val14, essendo un ordine di grandezza più veloce rispetto ai lavori precedenti.
English
We investigate reinforcement learning (RL) for privileged planning in
autonomous driving. State-of-the-art approaches for this task are rule-based,
but these methods do not scale to the long tail. RL, on the other hand, is
scalable and does not suffer from compounding errors like imitation learning.
Contemporary RL approaches for driving use complex shaped rewards that sum
multiple individual rewards, \eg~progress, position, or orientation rewards. We
show that PPO fails to optimize a popular version of these rewards when the
mini-batch size is increased, which limits the scalability of these approaches.
Instead, we propose a new reward design based primarily on optimizing a single
intuitive reward term: route completion. Infractions are penalized by
terminating the episode or multiplicatively reducing route completion. We find
that PPO scales well with higher mini-batch sizes when trained with our simple
reward, even improving performance. Training with large mini-batch sizes
enables efficient scaling via distributed data parallelism. We scale PPO to
300M samples in CARLA and 500M samples in nuPlan with a single 8-GPU node. The
resulting model achieves 64 DS on the CARLA longest6 v2 benchmark,
outperforming other RL methods with more complex rewards by a large margin.
Requiring only minimal adaptations from its use in CARLA, the same method is
the best learning-based approach on nuPlan. It scores 91.3 in non-reactive and
90.6 in reactive traffic on the Val14 benchmark while being an order of
magnitude faster than prior work.