Mobile ALOHA: 低コスト全身テレオペレーションによる二腕モバイルマニピュレーションの学習
Mobile ALOHA: Learning Bimanual Mobile Manipulation with Low-Cost Whole-Body Teleoperation
January 4, 2024
著者: Zipeng Fu, Tony Z. Zhao, Chelsea Finn
cs.AI
要旨
人間のデモンストレーションからの模倣学習は、ロボティクス分野で印象的な性能を示してきました。しかし、ほとんどの成果はテーブルトップ上の操作に焦点を当てており、一般的に有用なタスクに必要な機動性と器用さが欠けています。本研究では、両手操作と全身制御を必要とする移動操作タスクを模倣するシステムを開発します。まず、データ収集用の低コストな全身テレオペレーションシステムであるMobile ALOHAを紹介します。これはALOHAシステムに移動ベースと全身テレオペレーションインターフェースを追加したものです。Mobile ALOHAで収集したデータを使用して、教師あり行動クローニングを実施し、既存の静的なALOHAデータセットとの共学習が移動操作タスクの性能を向上させることを確認しました。各タスクに対して50回のデモンストレーションを用いることで、共学習は成功率を最大90%向上させ、Mobile ALOHAが複雑な移動操作タスクを自律的に完了できるようにします。例えば、エビを炒めて提供する、両開きの壁キャビネットを開けて重い調理鍋を収納する、エレベーターを呼んで乗る、使用済みのフライパンをキッチンの蛇口で軽く洗うといったタスクです。プロジェクトウェブサイト: https://mobile-aloha.github.io
English
Imitation learning from human demonstrations has shown impressive performance
in robotics. However, most results focus on table-top manipulation, lacking the
mobility and dexterity necessary for generally useful tasks. In this work, we
develop a system for imitating mobile manipulation tasks that are bimanual and
require whole-body control. We first present Mobile ALOHA, a low-cost and
whole-body teleoperation system for data collection. It augments the ALOHA
system with a mobile base, and a whole-body teleoperation interface. Using data
collected with Mobile ALOHA, we then perform supervised behavior cloning and
find that co-training with existing static ALOHA datasets boosts performance on
mobile manipulation tasks. With 50 demonstrations for each task, co-training
can increase success rates by up to 90%, allowing Mobile ALOHA to autonomously
complete complex mobile manipulation tasks such as sauteing and serving a piece
of shrimp, opening a two-door wall cabinet to store heavy cooking pots, calling
and entering an elevator, and lightly rinsing a used pan using a kitchen
faucet. Project website: https://mobile-aloha.github.io