BiGym:デモ駆動型モバイル両手操作ベンチマーク
BiGym: A Demo-Driven Mobile Bi-Manual Manipulation Benchmark
July 10, 2024
著者: Nikita Chernyadev, Nicholas Backshall, Xiao Ma, Yunfan Lu, Younggyo Seo, Stephen James
cs.AI
要旨
BiGymを紹介します。これは、移動型二腕ロボットのデモ駆動型マニピュレーションのための新しいベンチマークおよび学習環境です。BiGymは、家庭環境を舞台とした40種類の多様なタスクを特徴としており、単純なターゲット到達から複雑なキッチン清掃まで幅広くカバーしています。現実世界の性能を正確に捉えるため、各タスクに対して人間が収集したデモンストレーションを提供し、現実世界のロボット軌道に見られる多様なモダリティを反映しています。BiGymは、自己受容感覚データやRGB、3つのカメラ視点からの深度情報など、さまざまな観測をサポートしています。BiGymの有用性を検証するため、最先端の模倣学習アルゴリズムとデモ駆動型強化学習アルゴリズムを環境内で徹底的にベンチマークし、今後の可能性について議論します。
English
We introduce BiGym, a new benchmark and learning environment for mobile
bi-manual demo-driven robotic manipulation. BiGym features 40 diverse tasks set
in home environments, ranging from simple target reaching to complex kitchen
cleaning. To capture the real-world performance accurately, we provide
human-collected demonstrations for each task, reflecting the diverse modalities
found in real-world robot trajectories. BiGym supports a variety of
observations, including proprioceptive data and visual inputs such as RGB, and
depth from 3 camera views. To validate the usability of BiGym, we thoroughly
benchmark the state-of-the-art imitation learning algorithms and demo-driven
reinforcement learning algorithms within the environment and discuss the future
opportunities.Summary
AI-Generated Summary