ChatPaper.aiChatPaper

ロボット操作におけるサンプル効率を向上させるための局所性の活用

Leveraging Locality to Boost Sample Efficiency in Robotic Manipulation

June 15, 2024
著者: Tong Zhang, Yingdong Hu, Jiacheng You, Yang Gao
cs.AI

要旨

現実世界でのロボティクスデータ収集の高いコストを考慮すると、サンプル効率はロボティクスにおいて一貫して魅力的な追求となっています。本論文では、視覚と行動表現の改善を通じてサンプル効率を向上させる模倣学習フレームワークであるSGRv2を紹介します。SGRv2の設計の中心にあるのは、ロボットの行動が主に目標物体とその周囲の環境との相互作用に影響を受けるという重要な帰納バイアスである「行動局所性」の組み込みです。シミュレートおよび実世界の両方での広範な実験により、行動局所性がサンプル効率向上に不可欠であることが示されています。SGRv2は、わずか5つのデモンストレーションを使用してRLBenchタスクでキーフレーム制御を優れた成績で達成し、26のタスクのうち23でRVTベースラインを上回ります。さらに、ManiSkill2とMimicGenでの密な制御を使用した評価では、SGRv2の成功率はSGRの2.54倍です。実世界環境では、わずか8つのデモンストレーションで、SGRv2はベースラインモデルと比較して著しく高い成功率でさまざまなタスクを実行できます。プロジェクトのウェブサイト:http://sgrv2-robot.github.io
English
Given the high cost of collecting robotic data in the real world, sample efficiency is a consistently compelling pursuit in robotics. In this paper, we introduce SGRv2, an imitation learning framework that enhances sample efficiency through improved visual and action representations. Central to the design of SGRv2 is the incorporation of a critical inductive bias-action locality, which posits that robot's actions are predominantly influenced by the target object and its interactions with the local environment. Extensive experiments in both simulated and real-world settings demonstrate that action locality is essential for boosting sample efficiency. SGRv2 excels in RLBench tasks with keyframe control using merely 5 demonstrations and surpasses the RVT baseline in 23 of 26 tasks. Furthermore, when evaluated on ManiSkill2 and MimicGen using dense control, SGRv2's success rate is 2.54 times that of SGR. In real-world environments, with only eight demonstrations, SGRv2 can perform a variety of tasks at a markedly higher success rate compared to baseline models. Project website: http://sgrv2-robot.github.io

Summary

AI-Generated Summary

PDF21November 16, 2024