ChatPaper.aiChatPaper

異種の事前学習済みトランスフォーマーを用いた固有感覚と視覚の学習のスケーリング

Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers

September 30, 2024
著者: Lirui Wang, Xinlei Chen, Jialiang Zhao, Kaiming He
cs.AI

要旨

現在、一般的なロボットモデルのトレーニングにおける障害の1つは異質性です。従来のロボット学習方法は、しばしば特定の具現化のためにデータを収集してトレーニングし、これは高コストで過学習しやすいです。この研究は、異なる具現化およびスケールでのロボットデータによる異種事前トレーニングを通じてポリシー表現の学習問題を研究しています。私たちは異種事前トレーニングトランスフォーマー(HPT)を提案します。これは、ポリシーニューラルネットワークの大規模で共有可能なトランクを事前にトレーニングして、タスクと具現化に関係ない共有表現を学習します。この一般的なアーキテクチャは、異なる具現化からの特定の固有運動感覚と視覚入力をトークンの短いシーケンスに整列させ、そのようなトークンを処理して異なるタスクのロボットの制御にマッピングします。最近の大規模な多具現実世界のロボットデータセットやシミュレーション、展開されたロボット、人間のビデオデータセットを活用し、異質性を持つポリシーの事前トレーニングを調査します。我々は、トレーニング目標のスケーリング振る舞いを調査する実験を行い、52のデータセットに及ぶ範囲で検討します。HPTはいくつかのベースラインを上回り、複数のシミュレーターベンチマークや実世界の環境で未知のタスクにおいて、微調整されたポリシーのパフォーマンスを20%以上向上させます。コードやビデオについては、プロジェクトのウェブサイト(https://liruiw.github.io/hpt/)をご覧ください。
English
One of the roadblocks for training generalist robotic models today is heterogeneity. Previous robot learning methods often collect data to train with one specific embodiment for one task, which is expensive and prone to overfitting. This work studies the problem of learning policy representations through heterogeneous pre-training on robot data across different embodiments and tasks at scale. We propose Heterogeneous Pre-trained Transformers (HPT), which pre-train a large, shareable trunk of a policy neural network to learn a task and embodiment agnostic shared representation. This general architecture aligns the specific proprioception and vision inputs from distinct embodiments to a short sequence of tokens and then processes such tokens to map to control robots for different tasks. Leveraging the recent large-scale multi-embodiment real-world robotic datasets as well as simulation, deployed robots, and human video datasets, we investigate pre-training policies across heterogeneity. We conduct experiments to investigate the scaling behaviors of training objectives, to the extent of 52 datasets. HPTs outperform several baselines and enhance the fine-tuned policy performance by over 20% on unseen tasks in multiple simulator benchmarks and real-world settings. See the project website (https://liruiw.github.io/hpt/) for code and videos.

Summary

AI-Generated Summary

PDF142November 13, 2024