ChatPaper.aiChatPaper

TacSL: Een bibliotheek voor visuotactiele sensor-simulatie en -leren

TacSL: A Library for Visuotactile Sensor Simulation and Learning

August 12, 2024
Auteurs: Iretiayo Akinola, Jie Xu, Jan Carius, Dieter Fox, Yashraj Narang
cs.AI

Samenvatting

Voor zowel mensen als robots is het gevoel van aanraking, bekend als tactiele waarneming, cruciaal voor het uitvoeren van taken die rijk zijn aan contact. Drie belangrijke uitdagingen bij robotische tactiele waarneming zijn 1) het interpreteren van sensorsignalen, 2) het genereren van sensorsignalen in nieuwe scenario's, en 3) het leren van sensor-gebaseerde beleidsregels. Voor visuotactiele sensoren is interpretatie vergemakkelijkt door hun nauwe relatie met visuele sensoren (bijv. RGB-camera's). Generatie blijft echter moeilijk, aangezien visuotactiele sensoren meestal contact, vervorming, belichting en beeldvorming omvatten, die allemaal duur zijn om te simuleren; op zijn beurt is beleidsleren uitdagend, omdat simulatie niet kan worden benut voor grootschalige gegevensverzameling. Wij presenteren TacSL (taxel), een bibliotheek voor GPU-gebaseerde visuotactiele sensorsimulatie en -leren. TacSL kan worden gebruikt om visuotactiele beelden te simuleren en contactkrachtverdelingen meer dan 200 keer sneller te extraheren dan de vorige state-of-the-art, allemaal binnen de veelgebruikte Isaac Gym-simulator. Bovendien biedt TacSL een leertoolkit met meerdere sensormodellen, contactintensieve trainingsomgevingen en online/offline algoritmen die beleidsleren voor sim-to-real toepassingen kunnen vergemakkelijken. Op algoritmisch gebied introduceren we een nieuw online reinforcement-learning algoritme genaamd asymmetrische actor-critic distillatie (\sysName), ontworpen om tactiel-gebaseerde beleidsregels effectief en efficiënt in simulatie te leren die naar de echte wereld kunnen worden overgedragen. Tot slot demonstreren we het nut van onze bibliotheek en algoritmen door de voordelen van distillatie en multimodale waarneming te evalueren voor taken die rijk zijn aan contact, en vooral door sim-to-real overdracht uit te voeren. Aanvullende video's en resultaten zijn te vinden op https://iakinola23.github.io/tacsl/.
English
For both humans and robots, the sense of touch, known as tactile sensing, is critical for performing contact-rich manipulation tasks. Three key challenges in robotic tactile sensing are 1) interpreting sensor signals, 2) generating sensor signals in novel scenarios, and 3) learning sensor-based policies. For visuotactile sensors, interpretation has been facilitated by their close relationship with vision sensors (e.g., RGB cameras). However, generation is still difficult, as visuotactile sensors typically involve contact, deformation, illumination, and imaging, all of which are expensive to simulate; in turn, policy learning has been challenging, as simulation cannot be leveraged for large-scale data collection. We present TacSL (taxel), a library for GPU-based visuotactile sensor simulation and learning. TacSL can be used to simulate visuotactile images and extract contact-force distributions over 200times faster than the prior state-of-the-art, all within the widely-used Isaac Gym simulator. Furthermore, TacSL provides a learning toolkit containing multiple sensor models, contact-intensive training environments, and online/offline algorithms that can facilitate policy learning for sim-to-real applications. On the algorithmic side, we introduce a novel online reinforcement-learning algorithm called asymmetric actor-critic distillation (\sysName), designed to effectively and efficiently learn tactile-based policies in simulation that can transfer to the real world. Finally, we demonstrate the utility of our library and algorithms by evaluating the benefits of distillation and multimodal sensing for contact-rich manip ulation tasks, and most critically, performing sim-to-real transfer. Supplementary videos and results are at https://iakinola23.github.io/tacsl/.
PDF82November 28, 2024