TacSL: Uma Biblioteca para Simulação e Aprendizado de Sensores Visuotáteis
TacSL: A Library for Visuotactile Sensor Simulation and Learning
August 12, 2024
Autores: Iretiayo Akinola, Jie Xu, Jan Carius, Dieter Fox, Yashraj Narang
cs.AI
Resumo
Tanto para humanos quanto para robôs, o sentido do tato, conhecido como sensor tátil, é fundamental para realizar tarefas de manipulação ricas em contato. Três desafios-chave em sensores táteis robóticos são 1) interpretar os sinais dos sensores, 2) gerar sinais dos sensores em cenários novos e 3) aprender políticas baseadas em sensores. Para os sensores visuotáteis, a interpretação tem sido facilitada pela sua estreita relação com os sensores visuais (por exemplo, câmeras RGB). No entanto, a geração ainda é difícil, pois os sensores visuotáteis geralmente envolvem contato, deformação, iluminação e imagem, todos os quais são caros de simular; por sua vez, a aprendizagem de políticas tem sido desafiadora, pois a simulação não pode ser aproveitada para a coleta de dados em larga escala. Apresentamos TacSL (taxel), uma biblioteca para simulação e aprendizagem de sensores visuotáteis baseados em GPU. TacSL pode ser usado para simular imagens visuotáteis e extrair distribuições de força de contato mais de 200 vezes mais rápido do que o estado-da-arte anterior, tudo dentro do simulador amplamente utilizado Isaac Gym. Além disso, TacSL fornece um kit de ferramentas de aprendizagem contendo vários modelos de sensores, ambientes de treinamento intensivos em contato e algoritmos online/offline que podem facilitar a aprendizagem de políticas para aplicações de simulação para o mundo real. No lado algorítmico, introduzimos um novo algoritmo de aprendizagem por reforço online chamado distilação assimétrica ator-crítico (DACD), projetado para aprender políticas baseadas em tato de forma eficaz e eficiente na simulação que podem ser transferidas para o mundo real. Finalmente, demonstramos a utilidade de nossa biblioteca e algoritmos avaliando os benefícios da distilação e da detecção multimodal para tarefas de manipulação ricas em contato e, mais criticamente, realizando a transferência da simulação para o mundo real. Vídeos e resultados complementares estão em https://iakinola23.github.io/tacsl/.
English
For both humans and robots, the sense of touch, known as tactile sensing, is
critical for performing contact-rich manipulation tasks. Three key challenges
in robotic tactile sensing are 1) interpreting sensor signals, 2) generating
sensor signals in novel scenarios, and 3) learning sensor-based policies. For
visuotactile sensors, interpretation has been facilitated by their close
relationship with vision sensors (e.g., RGB cameras). However, generation is
still difficult, as visuotactile sensors typically involve contact,
deformation, illumination, and imaging, all of which are expensive to simulate;
in turn, policy learning has been challenging, as simulation cannot be
leveraged for large-scale data collection. We present TacSL
(taxel), a library for GPU-based visuotactile sensor simulation and
learning. TacSL can be used to simulate visuotactile images and
extract contact-force distributions over 200times faster than the prior
state-of-the-art, all within the widely-used Isaac Gym simulator. Furthermore,
TacSL provides a learning toolkit containing multiple sensor models,
contact-intensive training environments, and online/offline algorithms that can
facilitate policy learning for sim-to-real applications. On the algorithmic
side, we introduce a novel online reinforcement-learning algorithm called
asymmetric actor-critic distillation (\sysName), designed to effectively and
efficiently learn tactile-based policies in simulation that can transfer to the
real world. Finally, we demonstrate the utility of our library and algorithms
by evaluating the benefits of distillation and multimodal sensing for
contact-rich manip ulation tasks, and most critically, performing sim-to-real
transfer. Supplementary videos and results are at
https://iakinola23.github.io/tacsl/.Summary
AI-Generated Summary