ChatPaper.aiChatPaper

BeTAIL: Behavior Transformer Adversaire Imitatieleren van Menselijk Racespelgedrag

BeTAIL: Behavior Transformer Adversarial Imitation Learning from Human Racing Gameplay

February 22, 2024
Auteurs: Catherine Weaver, Chen Tang, Ce Hao, Kenta Kawamoto, Masayoshi Tomizuka, Wei Zhan
cs.AI

Samenvatting

Imitation learning leert een beleid aan de hand van demonstraties zonder dat handmatig ontworpen beloningsfuncties nodig zijn. Bij veel robotische taken, zoals autonoom racen, moeten geïmiteerde beleidsmodellen complexe omgevingsdynamiek en menselijke besluitvorming modelleren. Sequentiële modellering is zeer effectief in het vastleggen van ingewikkelde patronen in bewegingssequenties, maar heeft moeite om zich aan te passen aan nieuwe omgevingen of distributieverschuivingen die veel voorkomen in real-world robotische taken. Daarentegen kan Adversarial Imitation Learning (AIL) dit effect verminderen, maar worstelt het met sample-efficiëntie en het omgaan met complexe bewegingspatronen. Daarom stellen we BeTAIL voor: Behavior Transformer Adversarial Imitation Learning, dat een Behavior Transformer (BeT)-beleid op basis van menselijke demonstraties combineert met online AIL. BeTAIL voegt een AIL-residubeleid toe aan het BeT-beleid om het sequentiële besluitvormingsproces van menselijke experts te modelleren en te corrigeren voor out-of-distribution toestanden of verschuivingen in omgevingsdynamiek. We testen BeTAIL op drie uitdagingen met expertniveau-demonstraties van echt menselijk spel in Gran Turismo Sport. Ons voorgestelde residu-BeTAIL vermindert omgevingsinteracties en verbetert de raceprestaties en stabiliteit, zelfs wanneer de BeT vooraf is getraind op verschillende banen dan de downstream learning. Video's en code zijn beschikbaar op: https://sites.google.com/berkeley.edu/BeTAIL/home.
English
Imitation learning learns a policy from demonstrations without requiring hand-designed reward functions. In many robotic tasks, such as autonomous racing, imitated policies must model complex environment dynamics and human decision-making. Sequence modeling is highly effective in capturing intricate patterns of motion sequences but struggles to adapt to new environments or distribution shifts that are common in real-world robotics tasks. In contrast, Adversarial Imitation Learning (AIL) can mitigate this effect, but struggles with sample inefficiency and handling complex motion patterns. Thus, we propose BeTAIL: Behavior Transformer Adversarial Imitation Learning, which combines a Behavior Transformer (BeT) policy from human demonstrations with online AIL. BeTAIL adds an AIL residual policy to the BeT policy to model the sequential decision-making process of human experts and correct for out-of-distribution states or shifts in environment dynamics. We test BeTAIL on three challenges with expert-level demonstrations of real human gameplay in Gran Turismo Sport. Our proposed residual BeTAIL reduces environment interactions and improves racing performance and stability, even when the BeT is pretrained on different tracks than downstream learning. Videos and code available at: https://sites.google.com/berkeley.edu/BeTAIL/home.
PDF61February 14, 2026