Scaling dell'apprendimento Proprioceettivo-Visivo con Trasformatori Pre-Allenati Eterogenei
Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers
September 30, 2024
Autori: Lirui Wang, Xinlei Chen, Jialiang Zhao, Kaiming He
cs.AI
Abstract
Uno dei principali ostacoli per l'allenamento dei modelli robotici generalisti oggi è l'eterogeneità. I metodi di apprendimento dei robot precedenti spesso raccolgono dati per l'allenamento con un'incarnazione specifica per un compito, il che è costoso e soggetto all'overfitting. Questo lavoro studia il problema della rappresentazione delle politiche di apprendimento attraverso il pre-training eterogeneo su dati robotici provenienti da diverse incarnazioni e compiti su larga scala. Proponiamo i Trasformatori Pre-allenati Eterogenei (HPT), che pre-allenano un grande tronco condivisibile di una rete neurale di politiche per apprendere una rappresentazione condivisa agnostica rispetto al compito e all'incarnazione. Questa architettura generale allinea gli input specifici della propriocettività e della visione da diverse incarnazioni a una breve sequenza di token e poi elabora tali token per mapparli per controllare robot per diversi compiti. Sfruttando i recenti dataset robotici del mondo reale multi-incarnazione su larga scala così come la simulazione, i robot implementati e i dataset video umani, investighiamo il pre-training delle politiche attraverso l'eterogeneità. Conduciamo esperimenti per investigare i comportamenti di scaling degli obiettivi di allenamento, fino a un totale di 52 dataset. Gli HPT superano diversi baselines e migliorano le prestazioni delle politiche sintonizzate di oltre il 20% su compiti non visti in diversi benchmark di simulazione e ambienti reali. Consultare il sito del progetto (https://liruiw.github.io/hpt/) per il codice e i video.
English
One of the roadblocks for training generalist robotic models today is
heterogeneity. Previous robot learning methods often collect data to train with
one specific embodiment for one task, which is expensive and prone to
overfitting. This work studies the problem of learning policy representations
through heterogeneous pre-training on robot data across different embodiments
and tasks at scale. We propose Heterogeneous Pre-trained Transformers (HPT),
which pre-train a large, shareable trunk of a policy neural network to learn a
task and embodiment agnostic shared representation. This general architecture
aligns the specific proprioception and vision inputs from distinct embodiments
to a short sequence of tokens and then processes such tokens to map to control
robots for different tasks. Leveraging the recent large-scale multi-embodiment
real-world robotic datasets as well as simulation, deployed robots, and human
video datasets, we investigate pre-training policies across heterogeneity. We
conduct experiments to investigate the scaling behaviors of training
objectives, to the extent of 52 datasets. HPTs outperform several baselines and
enhance the fine-tuned policy performance by over 20% on unseen tasks in
multiple simulator benchmarks and real-world settings. See the project website
(https://liruiw.github.io/hpt/) for code and videos.