Escalonando Aprendizado Proprioceptivo-Visual com Transformadores Pré-treinados Heterogêneos
Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers
September 30, 2024
Autores: Lirui Wang, Xinlei Chen, Jialiang Zhao, Kaiming He
cs.AI
Resumo
Um dos obstáculos para o treinamento de modelos robóticos generalistas hoje em dia é a heterogeneidade. Métodos anteriores de aprendizado de robôs frequentemente coletam dados para treinar com um único corpo específico para uma tarefa, o que é caro e propenso ao overfitting. Este trabalho estuda o problema de aprender representações de políticas por meio de pré-treinamento heterogêneo em dados de robôs de diferentes corpos e tarefas em escala. Propomos Transformadores Pré-treinados Heterogêneos (HPT), que pré-treinam um tronco grande e compartilhável de uma rede neural de política para aprender uma representação compartilhada independente de tarefa e corpo. Esta arquitetura geral alinha as entradas específicas de propriocepção e visão de diferentes corpos a uma sequência curta de tokens e então processa tais tokens para mapear o controle de robôs para diferentes tarefas. Aproveitando conjuntos de dados robóticos do mundo real multi-corpos em larga escala recentes, bem como simulações, robôs implantados e conjuntos de dados de vídeo humanos, investigamos o pré-treinamento de políticas em meio à heterogeneidade. Realizamos experimentos para investigar os comportamentos de escalonamento de objetivos de treinamento, até o alcance de 52 conjuntos de dados. Os HPTs superam várias linhas de base e aprimoram o desempenho da política ajustada em mais de 20% em tarefas não vistas em vários benchmarks de simuladores e ambientes do mundo real. Consulte o site do projeto (https://liruiw.github.io/hpt/) para código e vídeos.
English
One of the roadblocks for training generalist robotic models today is
heterogeneity. Previous robot learning methods often collect data to train with
one specific embodiment for one task, which is expensive and prone to
overfitting. This work studies the problem of learning policy representations
through heterogeneous pre-training on robot data across different embodiments
and tasks at scale. We propose Heterogeneous Pre-trained Transformers (HPT),
which pre-train a large, shareable trunk of a policy neural network to learn a
task and embodiment agnostic shared representation. This general architecture
aligns the specific proprioception and vision inputs from distinct embodiments
to a short sequence of tokens and then processes such tokens to map to control
robots for different tasks. Leveraging the recent large-scale multi-embodiment
real-world robotic datasets as well as simulation, deployed robots, and human
video datasets, we investigate pre-training policies across heterogeneity. We
conduct experiments to investigate the scaling behaviors of training
objectives, to the extent of 52 datasets. HPTs outperform several baselines and
enhance the fine-tuned policy performance by over 20% on unseen tasks in
multiple simulator benchmarks and real-world settings. See the project website
(https://liruiw.github.io/hpt/) for code and videos.Summary
AI-Generated Summary