TacSL: Una libreria per la simulazione e l'apprendimento di sensori visuotattili
TacSL: A Library for Visuotactile Sensor Simulation and Learning
August 12, 2024
Autori: Iretiayo Akinola, Jie Xu, Jan Carius, Dieter Fox, Yashraj Narang
cs.AI
Abstract
Sia per gli esseri umani che per i robot, il senso del tatto, noto come percezione tattile, è fondamentale per eseguire compiti di manipolazione che richiedono contatto. Tre sfide principali nella percezione tattile robotica sono: 1) interpretare i segnali dei sensori, 2) generare segnali dei sensori in scenari nuovi e 3) apprendere politiche basate sui sensori. Per i sensori visuo-tattili, l'interpretazione è stata facilitata dalla loro stretta relazione con i sensori visivi (ad esempio, telecamere RGB). Tuttavia, la generazione rimane difficile, poiché i sensori visuo-tattili coinvolgono tipicamente contatto, deformazione, illuminazione e imaging, tutti elementi costosi da simulare; di conseguenza, l'apprendimento delle politiche è stato impegnativo, poiché la simulazione non può essere sfruttata per la raccolta di dati su larga scala. Presentiamo TacSL (taxel), una libreria per la simulazione e l'apprendimento di sensori visuo-tattili basata su GPU. TacSL può essere utilizzata per simulare immagini visuo-tattili ed estrarre distribuzioni di forza di contatto oltre 200 volte più velocemente rispetto allo stato dell'arte precedente, tutto all'interno del simulatore ampiamente utilizzato Isaac Gym. Inoltre, TacSL fornisce un toolkit di apprendimento contenente modelli di sensori multipli, ambienti di formazione intensivi al contatto e algoritmi online/offline che possono facilitare l'apprendimento delle politiche per applicazioni sim-to-real. Sul lato algoritmico, introduciamo un nuovo algoritmo di apprendimento per rinforzo online chiamato distillazione attore-critico asimmetrica (\sysName), progettato per apprendere in modo efficace ed efficiente politiche basate sul tatto in simulazione che possono essere trasferite nel mondo reale. Infine, dimostriamo l'utilità della nostra libreria e degli algoritmi valutando i vantaggi della distillazione e della percezione multimodale per compiti di manipolazione ricchi di contatto e, soprattutto, eseguendo il trasferimento sim-to-real. Video e risultati supplementari sono disponibili su https://iakinola23.github.io/tacsl/.
English
For both humans and robots, the sense of touch, known as tactile sensing, is
critical for performing contact-rich manipulation tasks. Three key challenges
in robotic tactile sensing are 1) interpreting sensor signals, 2) generating
sensor signals in novel scenarios, and 3) learning sensor-based policies. For
visuotactile sensors, interpretation has been facilitated by their close
relationship with vision sensors (e.g., RGB cameras). However, generation is
still difficult, as visuotactile sensors typically involve contact,
deformation, illumination, and imaging, all of which are expensive to simulate;
in turn, policy learning has been challenging, as simulation cannot be
leveraged for large-scale data collection. We present TacSL
(taxel), a library for GPU-based visuotactile sensor simulation and
learning. TacSL can be used to simulate visuotactile images and
extract contact-force distributions over 200times faster than the prior
state-of-the-art, all within the widely-used Isaac Gym simulator. Furthermore,
TacSL provides a learning toolkit containing multiple sensor models,
contact-intensive training environments, and online/offline algorithms that can
facilitate policy learning for sim-to-real applications. On the algorithmic
side, we introduce a novel online reinforcement-learning algorithm called
asymmetric actor-critic distillation (\sysName), designed to effectively and
efficiently learn tactile-based policies in simulation that can transfer to the
real world. Finally, we demonstrate the utility of our library and algorithms
by evaluating the benefits of distillation and multimodal sensing for
contact-rich manip ulation tasks, and most critically, performing sim-to-real
transfer. Supplementary videos and results are at
https://iakinola23.github.io/tacsl/.