TacSL: Библиотека для симуляции и обучения визуотактильным сенсорам
TacSL: A Library for Visuotactile Sensor Simulation and Learning
August 12, 2024
Авторы: Iretiayo Akinola, Jie Xu, Jan Carius, Dieter Fox, Yashraj Narang
cs.AI
Аннотация
Для людей и роботов чувство осязания, известное как тактильное восприятие, является критическим для выполнения задач манипулирования с контактом. Три ключевые проблемы в робототехническом тактильном восприятии - 1) интерпретация сигналов сенсоров, 2) генерация сенсорных сигналов в новых сценариях и 3) обучение политикам на основе сенсоров. Для визуотактильных сенсоров интерпретация была облегчена благодаря их тесной связи с визионными сенсорами (например, RGB-камерами). Однако генерация все еще затруднительна, поскольку визуотактильные сенсоры обычно включают контакт, деформацию, освещение и изображение, все это дорого симулировать; в свою очередь, обучение политикам оказалось сложным, поскольку симуляцию нельзя использовать для сбора данных в крупном масштабе. Мы представляем TacSL (таксель), библиотеку для симуляции и обучения визуотактильных сенсоров на основе GPU. TacSL может использоваться для симуляции визуотактильных изображений и извлечения распределений силы контакта более чем в 200 раз быстрее, чем предыдущий state-of-the-art, все в рамках широко используемого симулятора Isaac Gym. Более того, TacSL предоставляет набор инструментов для обучения, включающий несколько моделей сенсоров, среды для обучения с интенсивным контактом и алгоритмы онлайн/офлайн, которые могут облегчить обучение политик для приложений sim-to-real. На алгоритмической стороне мы представляем новый алгоритм обучения с подкреплением онлайн, называемый асимметричным актор-критик дистилляцией (TacSL), разработанный для эффективного и эффективного обучения политик на основе тактильных данных в симуляции, которые могут быть перенесены в реальный мир. Наконец, мы демонстрируем полезность нашей библиотеки и алгоритмов, оценивая выгоды дистилляции и мультимодального восприятия для задач манипулирования с контактом, и, что самое важное, выполняя перенос из симуляции в реальность. Дополнительные видео и результаты доступны на https://iakinola23.github.io/tacsl/.
English
For both humans and robots, the sense of touch, known as tactile sensing, is
critical for performing contact-rich manipulation tasks. Three key challenges
in robotic tactile sensing are 1) interpreting sensor signals, 2) generating
sensor signals in novel scenarios, and 3) learning sensor-based policies. For
visuotactile sensors, interpretation has been facilitated by their close
relationship with vision sensors (e.g., RGB cameras). However, generation is
still difficult, as visuotactile sensors typically involve contact,
deformation, illumination, and imaging, all of which are expensive to simulate;
in turn, policy learning has been challenging, as simulation cannot be
leveraged for large-scale data collection. We present TacSL
(taxel), a library for GPU-based visuotactile sensor simulation and
learning. TacSL can be used to simulate visuotactile images and
extract contact-force distributions over 200times faster than the prior
state-of-the-art, all within the widely-used Isaac Gym simulator. Furthermore,
TacSL provides a learning toolkit containing multiple sensor models,
contact-intensive training environments, and online/offline algorithms that can
facilitate policy learning for sim-to-real applications. On the algorithmic
side, we introduce a novel online reinforcement-learning algorithm called
asymmetric actor-critic distillation (\sysName), designed to effectively and
efficiently learn tactile-based policies in simulation that can transfer to the
real world. Finally, we demonstrate the utility of our library and algorithms
by evaluating the benefits of distillation and multimodal sensing for
contact-rich manip ulation tasks, and most critically, performing sim-to-real
transfer. Supplementary videos and results are at
https://iakinola23.github.io/tacsl/.Summary
AI-Generated Summary