ChatPaper.aiChatPaper

BiGym:デモ駆動型モバイル両手操作ベンチマーク

BiGym: A Demo-Driven Mobile Bi-Manual Manipulation Benchmark

July 10, 2024
著者: Nikita Chernyadev, Nicholas Backshall, Xiao Ma, Yunfan Lu, Younggyo Seo, Stephen James
cs.AI

要旨

BiGymを紹介します。これは、移動型二腕ロボットのデモ駆動型マニピュレーションのための新しいベンチマークおよび学習環境です。BiGymは、家庭環境を舞台とした40種類の多様なタスクを特徴としており、単純なターゲット到達から複雑なキッチン清掃まで幅広くカバーしています。現実世界の性能を正確に捉えるため、各タスクに対して人間が収集したデモンストレーションを提供し、現実世界のロボット軌道に見られる多様なモダリティを反映しています。BiGymは、自己受容感覚データやRGB、3つのカメラ視点からの深度情報など、さまざまな観測をサポートしています。BiGymの有用性を検証するため、最先端の模倣学習アルゴリズムとデモ駆動型強化学習アルゴリズムを環境内で徹底的にベンチマークし、今後の可能性について議論します。
English
We introduce BiGym, a new benchmark and learning environment for mobile bi-manual demo-driven robotic manipulation. BiGym features 40 diverse tasks set in home environments, ranging from simple target reaching to complex kitchen cleaning. To capture the real-world performance accurately, we provide human-collected demonstrations for each task, reflecting the diverse modalities found in real-world robot trajectories. BiGym supports a variety of observations, including proprioceptive data and visual inputs such as RGB, and depth from 3 camera views. To validate the usability of BiGym, we thoroughly benchmark the state-of-the-art imitation learning algorithms and demo-driven reinforcement learning algorithms within the environment and discuss the future opportunities.

Summary

AI-Generated Summary

PDF21November 28, 2024