TacSL: Una biblioteca para la simulación y el aprendizaje de sensores visuotáctiles
TacSL: A Library for Visuotactile Sensor Simulation and Learning
August 12, 2024
Autores: Iretiayo Akinola, Jie Xu, Jan Carius, Dieter Fox, Yashraj Narang
cs.AI
Resumen
Tanto para humanos como para robots, el sentido del tacto, conocido como percepción táctil, es fundamental para realizar tareas de manipulación ricas en contacto. Tres desafíos clave en la percepción táctil robótica son 1) interpretar las señales del sensor, 2) generar señales del sensor en escenarios novedosos, y 3) aprender políticas basadas en el sensor. Para los sensores visuotáctiles, la interpretación ha sido facilitada por su estrecha relación con los sensores visuales (por ejemplo, cámaras RGB). Sin embargo, la generación sigue siendo difícil, ya que los sensores visuotáctiles suelen implicar contacto, deformación, iluminación e imágenes, todos los cuales son costosos de simular; a su vez, el aprendizaje de políticas ha sido desafiante, ya que la simulación no se puede aprovechar para la recopilación de datos a gran escala. Presentamos TacSL (taxel), una biblioteca para la simulación y aprendizaje de sensores visuotáctiles basada en GPU. TacSL se puede utilizar para simular imágenes visuotáctiles y extraer distribuciones de fuerza de contacto más de 200 veces más rápido que el estado del arte anterior, todo dentro del simulador Isaac Gym ampliamente utilizado. Además, TacSL proporciona un conjunto de herramientas de aprendizaje que contiene múltiples modelos de sensores, entornos de entrenamiento intensivos en contacto y algoritmos en línea/fuera de línea que pueden facilitar el aprendizaje de políticas para aplicaciones de simulación a la realidad. En el lado algorítmico, presentamos un nuevo algoritmo de aprendizaje por refuerzo en línea llamado destilación asimétrica actor-critic (\sysName), diseñado para aprender políticas basadas en el tacto de manera efectiva y eficiente en simulación que puedan transferirse al mundo real. Finalmente, demostramos la utilidad de nuestra biblioteca y algoritmos evaluando los beneficios de la destilación y la percepción multimodal para tareas de manipulación ricas en contacto, y lo más crítico, realizando la transferencia de simulación a realidad. Se pueden encontrar videos y resultados complementarios en https://iakinola23.github.io/tacsl/.
English
For both humans and robots, the sense of touch, known as tactile sensing, is
critical for performing contact-rich manipulation tasks. Three key challenges
in robotic tactile sensing are 1) interpreting sensor signals, 2) generating
sensor signals in novel scenarios, and 3) learning sensor-based policies. For
visuotactile sensors, interpretation has been facilitated by their close
relationship with vision sensors (e.g., RGB cameras). However, generation is
still difficult, as visuotactile sensors typically involve contact,
deformation, illumination, and imaging, all of which are expensive to simulate;
in turn, policy learning has been challenging, as simulation cannot be
leveraged for large-scale data collection. We present TacSL
(taxel), a library for GPU-based visuotactile sensor simulation and
learning. TacSL can be used to simulate visuotactile images and
extract contact-force distributions over 200times faster than the prior
state-of-the-art, all within the widely-used Isaac Gym simulator. Furthermore,
TacSL provides a learning toolkit containing multiple sensor models,
contact-intensive training environments, and online/offline algorithms that can
facilitate policy learning for sim-to-real applications. On the algorithmic
side, we introduce a novel online reinforcement-learning algorithm called
asymmetric actor-critic distillation (\sysName), designed to effectively and
efficiently learn tactile-based policies in simulation that can transfer to the
real world. Finally, we demonstrate the utility of our library and algorithms
by evaluating the benefits of distillation and multimodal sensing for
contact-rich manip ulation tasks, and most critically, performing sim-to-real
transfer. Supplementary videos and results are at
https://iakinola23.github.io/tacsl/.Summary
AI-Generated Summary