TacSL : Une bibliothèque pour la simulation et l'apprentissage de capteurs visuo-tactiles
TacSL: A Library for Visuotactile Sensor Simulation and Learning
August 12, 2024
papers.authors: Iretiayo Akinola, Jie Xu, Jan Carius, Dieter Fox, Yashraj Narang
cs.AI
papers.abstract
Pour les humains comme pour les robots, le sens du toucher, connu sous le nom de perception tactile, est essentiel pour accomplir des tâches de manipulation impliquant des contacts fréquents. Trois défis majeurs dans la perception tactile robotique sont : 1) l'interprétation des signaux des capteurs, 2) la génération de signaux dans des scénarios nouveaux, et 3) l'apprentissage de politiques basées sur les capteurs. Pour les capteurs visuo-tactiles, l'interprétation a été facilitée par leur relation étroite avec les capteurs visuels (par exemple, les caméras RGB). Cependant, la génération reste difficile, car les capteurs visuo-tactiles impliquent généralement des contacts, des déformations, un éclairage et une imagerie, tous coûteux à simuler ; par conséquent, l'apprentissage de politiques a été problématique, car la simulation ne peut pas être exploitée pour la collecte de données à grande échelle. Nous présentons TacSL (taxel), une bibliothèque pour la simulation et l'apprentissage de capteurs visuo-tactiles basée sur GPU. TacSL peut être utilisée pour simuler des images visuo-tactiles et extraire des distributions de forces de contact plus de 200 fois plus rapidement que l'état de l'art précédent, le tout au sein du simulateur largement utilisé Isaac Gym. De plus, TacSL fournit une boîte à outils d'apprentissage contenant plusieurs modèles de capteurs, des environnements d'entraînement intensifs en contacts, et des algorithmes en ligne/hors ligne qui peuvent faciliter l'apprentissage de politiques pour des applications de transfert simulation-réalité. Sur le plan algorithmique, nous introduisons un nouvel algorithme d'apprentissage par renforcement en ligne appelé distillation acteur-critique asymétrique (\sysName), conçu pour apprendre efficacement et de manière efficiente des politiques basées sur le toucher en simulation, qui peuvent être transférées dans le monde réel. Enfin, nous démontrons l'utilité de notre bibliothèque et de nos algorithmes en évaluant les avantages de la distillation et de la perception multimodale pour les tâches de manipulation riches en contacts, et surtout, en réalisant un transfert simulation-réalité. Les vidéos supplémentaires et les résultats sont disponibles à l'adresse https://iakinola23.github.io/tacsl/.
English
For both humans and robots, the sense of touch, known as tactile sensing, is
critical for performing contact-rich manipulation tasks. Three key challenges
in robotic tactile sensing are 1) interpreting sensor signals, 2) generating
sensor signals in novel scenarios, and 3) learning sensor-based policies. For
visuotactile sensors, interpretation has been facilitated by their close
relationship with vision sensors (e.g., RGB cameras). However, generation is
still difficult, as visuotactile sensors typically involve contact,
deformation, illumination, and imaging, all of which are expensive to simulate;
in turn, policy learning has been challenging, as simulation cannot be
leveraged for large-scale data collection. We present TacSL
(taxel), a library for GPU-based visuotactile sensor simulation and
learning. TacSL can be used to simulate visuotactile images and
extract contact-force distributions over 200times faster than the prior
state-of-the-art, all within the widely-used Isaac Gym simulator. Furthermore,
TacSL provides a learning toolkit containing multiple sensor models,
contact-intensive training environments, and online/offline algorithms that can
facilitate policy learning for sim-to-real applications. On the algorithmic
side, we introduce a novel online reinforcement-learning algorithm called
asymmetric actor-critic distillation (\sysName), designed to effectively and
efficiently learn tactile-based policies in simulation that can transfer to the
real world. Finally, we demonstrate the utility of our library and algorithms
by evaluating the benefits of distillation and multimodal sensing for
contact-rich manip ulation tasks, and most critically, performing sim-to-real
transfer. Supplementary videos and results are at
https://iakinola23.github.io/tacsl/.