TacSL: 視覚触覚センサーシミュレーションと学習のためのライブラリ
TacSL: A Library for Visuotactile Sensor Simulation and Learning
August 12, 2024
著者: Iretiayo Akinola, Jie Xu, Jan Carius, Dieter Fox, Yashraj Narang
cs.AI
要旨
人間とロボットの両方にとって、触覚センシングとして知られる触覚は、接触の多い操作タスクを実行する上で極めて重要です。ロボットの触覚センシングにおける3つの主要な課題は、1)センサ信号の解釈、2)新しいシナリオでのセンサ信号の生成、3)センサベースのポリシーの学習です。視覚触覚センサの場合、解釈は視覚センサ(例:RGBカメラ)との密接な関係によって容易になっています。しかし、生成は依然として困難です。なぜなら、視覚触覚センサは通常、接触、変形、照明、およびイメージングを伴い、これらをシミュレートするにはコストがかかるためです。その結果、ポリシーの学習も難航しています。なぜなら、シミュレーションを大規模なデータ収集に活用できないからです。本論文では、GPUベースの視覚触覚センサシミュレーションと学習のためのライブラリであるTacSL(タクセル)を紹介します。TacSLは、視覚触覚画像をシミュレートし、接触力分布を抽出するために、従来の最先端技術よりも200倍以上高速に動作し、広く使用されているIsaac Gymシミュレータ内で実行できます。さらに、TacSLは、複数のセンサーモデル、接触を多用するトレーニング環境、およびシミュレーションから現実への応用を促進するオンライン/オフラインアルゴリズムを含む学習ツールキットを提供します。アルゴリズム面では、シミュレーション内で効果的かつ効率的に触覚ベースのポリシーを学習し、現実世界に転移可能な新しいオンライン強化学習アルゴリズムである非対称アクター-クリティック蒸留(\sysName)を導入します。最後に、本ライブラリとアルゴリズムの有用性を、蒸留とマルチモーダルセンシングの利点を評価し、最も重要な点として、シミュレーションから現実への転移を実行することで実証します。補足ビデオと結果はhttps://iakinola23.github.io/tacsl/にあります。
English
For both humans and robots, the sense of touch, known as tactile sensing, is
critical for performing contact-rich manipulation tasks. Three key challenges
in robotic tactile sensing are 1) interpreting sensor signals, 2) generating
sensor signals in novel scenarios, and 3) learning sensor-based policies. For
visuotactile sensors, interpretation has been facilitated by their close
relationship with vision sensors (e.g., RGB cameras). However, generation is
still difficult, as visuotactile sensors typically involve contact,
deformation, illumination, and imaging, all of which are expensive to simulate;
in turn, policy learning has been challenging, as simulation cannot be
leveraged for large-scale data collection. We present TacSL
(taxel), a library for GPU-based visuotactile sensor simulation and
learning. TacSL can be used to simulate visuotactile images and
extract contact-force distributions over 200times faster than the prior
state-of-the-art, all within the widely-used Isaac Gym simulator. Furthermore,
TacSL provides a learning toolkit containing multiple sensor models,
contact-intensive training environments, and online/offline algorithms that can
facilitate policy learning for sim-to-real applications. On the algorithmic
side, we introduce a novel online reinforcement-learning algorithm called
asymmetric actor-critic distillation (\sysName), designed to effectively and
efficiently learn tactile-based policies in simulation that can transfer to the
real world. Finally, we demonstrate the utility of our library and algorithms
by evaluating the benefits of distillation and multimodal sensing for
contact-rich manip ulation tasks, and most critically, performing sim-to-real
transfer. Supplementary videos and results are at
https://iakinola23.github.io/tacsl/.Summary
AI-Generated Summary