ChatPaper.aiChatPaper

Mise à l'échelle de l'apprentissage proprioceptif-visuel avec des transformateurs pré-entraînés hétérogènes

Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers

September 30, 2024
Auteurs: Lirui Wang, Xinlei Chen, Jialiang Zhao, Kaiming He
cs.AI

Résumé

Un des obstacles à la formation des modèles robotiques généralistes aujourd'hui est l'hétérogénéité. Les méthodes d'apprentissage des robots précédentes collectaient souvent des données pour former un modèle avec une seule incarnation spécifique pour une tâche, ce qui est coûteux et sujet au surajustement. Ce travail étudie le problème de l'apprentissage des représentations de politiques à travers une préformation hétérogène sur des données robotiques provenant de différentes incarnations et tâches à grande échelle. Nous proposons des Transformateurs Pré-entraînés Hétérogènes (HPT), qui préforment un tronc de réseau neuronal de politique partageable et de grande taille pour apprendre une représentation partagée agnostique de la tâche et de l'incarnation. Cette architecture générale aligne les entrées spécifiques de proprioception et de vision provenant d'incarnations distinctes sur une courte séquence de jetons, puis traite ces jetons pour les mapper afin de contrôler des robots pour différentes tâches. En exploitant les récentes bases de données robotiques du monde réel à grande échelle multi-incarnations ainsi que la simulation, les robots déployés et les bases de données vidéo humaines, nous étudions la préformation des politiques à travers l'hétérogénéité. Nous menons des expériences pour étudier les comportements d'échelle des objectifs d'entraînement, jusqu'à 52 bases de données. Les HPT surpassent plusieurs lignes de base et améliorent les performances des politiques affinées de plus de 20 % sur des tâches non vues dans plusieurs benchmarks de simulateurs et paramètres du monde réel. Consultez le site du projet (https://liruiw.github.io/hpt/) pour le code et les vidéos.
English
One of the roadblocks for training generalist robotic models today is heterogeneity. Previous robot learning methods often collect data to train with one specific embodiment for one task, which is expensive and prone to overfitting. This work studies the problem of learning policy representations through heterogeneous pre-training on robot data across different embodiments and tasks at scale. We propose Heterogeneous Pre-trained Transformers (HPT), which pre-train a large, shareable trunk of a policy neural network to learn a task and embodiment agnostic shared representation. This general architecture aligns the specific proprioception and vision inputs from distinct embodiments to a short sequence of tokens and then processes such tokens to map to control robots for different tasks. Leveraging the recent large-scale multi-embodiment real-world robotic datasets as well as simulation, deployed robots, and human video datasets, we investigate pre-training policies across heterogeneity. We conduct experiments to investigate the scaling behaviors of training objectives, to the extent of 52 datasets. HPTs outperform several baselines and enhance the fine-tuned policy performance by over 20% on unseen tasks in multiple simulator benchmarks and real-world settings. See the project website (https://liruiw.github.io/hpt/) for code and videos.

Summary

AI-Generated Summary

PDF142November 13, 2024