Opschalen van Proprioceptief-Visueel Leren met Heterogene Vooraf Getrainde Transformers
Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers
September 30, 2024
Auteurs: Lirui Wang, Xinlei Chen, Jialiang Zhao, Kaiming He
cs.AI
Samenvatting
Een van de struikelblokken voor het trainen van algemene robotmodellen vandaag de dag is heterogeniteit. Vorige methoden voor robotleren verzamelden vaak gegevens om te trainen met één specifieke belichaming voor één taak, wat duur is en gevoelig voor overpassing. Dit werk bestudeert het probleem van het leren van beleidsrepresentaties door heterogene voorafgaande training op robotgegevens over verschillende belichamingen en taken op schaal. We stellen Heterogene Vooraf Getrainde Transformers (HPT) voor, die een grote, deelbare romp van een beleidsneuraal netwerk vooraf trainen om een taak- en belichamingagnostische gedeelde representatie te leren. Deze algemene architectuur stemt de specifieke proprioceptie- en zichtinvoer van verschillende belichamingen af op een korte reeks tokens en verwerkt vervolgens dergelijke tokens om te worden toegewezen aan het besturen van robots voor verschillende taken. Door gebruik te maken van recente grootschalige multi-belichamingen echte robotdatasets en simulatie, ingezette robots en menselijke videodatasets, onderzoeken we het vooraf trainen van beleidsregels over heterogeniteit. We voeren experimenten uit om de schaalbaarheid van trainingsdoelstellingen te onderzoeken, tot wel 52 datasets. HPT's presteren beter dan verschillende baselines en verbeteren de prestaties van fijn afgestemde beleidsregels met meer dan 20% op ongeziene taken in meerdere simulatiebenchmarks en echte omgevingen. Zie de projectwebsite (https://liruiw.github.io/hpt/) voor code en video's.
English
One of the roadblocks for training generalist robotic models today is
heterogeneity. Previous robot learning methods often collect data to train with
one specific embodiment for one task, which is expensive and prone to
overfitting. This work studies the problem of learning policy representations
through heterogeneous pre-training on robot data across different embodiments
and tasks at scale. We propose Heterogeneous Pre-trained Transformers (HPT),
which pre-train a large, shareable trunk of a policy neural network to learn a
task and embodiment agnostic shared representation. This general architecture
aligns the specific proprioception and vision inputs from distinct embodiments
to a short sequence of tokens and then processes such tokens to map to control
robots for different tasks. Leveraging the recent large-scale multi-embodiment
real-world robotic datasets as well as simulation, deployed robots, and human
video datasets, we investigate pre-training policies across heterogeneity. We
conduct experiments to investigate the scaling behaviors of training
objectives, to the extent of 52 datasets. HPTs outperform several baselines and
enhance the fine-tuned policy performance by over 20% on unseen tasks in
multiple simulator benchmarks and real-world settings. See the project website
(https://liruiw.github.io/hpt/) for code and videos.Summary
AI-Generated Summary