Политика трехмерной диффузии
3D Diffusion Policy
March 6, 2024
Авторы: Yanjie Ze, Gu Zhang, Kangning Zhang, Chenyuan Hu, Muhan Wang, Huazhe Xu
cs.AI
Аннотация
Имитационное обучение предоставляет эффективный способ обучать роботов ловким навыкам; однако, обучение сложных навыков надежно и обобщаемо обычно требует большого количества демонстраций человека. Для решения этой сложной проблемы мы представляем 3D Диффузионную Политику (DP3), новый подход к визуальному имитационному обучению, который интегрирует мощь 3D визуальных представлений в диффузионные политики, класс условных генеративных моделей действий. Основное концептуальное решение DP3 заключается в использовании компактного 3D визуального представления, извлеченного из разреженных облаков точек с помощью эффективного кодера точек. В наших экспериментах, включающих 72 симуляционных задачи, DP3 успешно справляется с большинством задач всего лишь с 10 демонстрациями и превосходит базовые показатели на 55,3% относительного улучшения. В 4 реальных задачах с роботом, DP3 демонстрирует точное управление с высоким процентом успешных попыток в 85%, имея всего лишь 40 демонстраций для каждой задачи, и проявляет отличные обобщающие способности в различных аспектах, включая пространство, точку зрения, внешний вид и экземпляр. Интересно, что в реальных экспериментах с роботом DP3 редко нарушает требования безопасности, в отличие от базовых методов, которые это часто делают, требуя вмешательства человека. Наше обширное оценивание подчеркивает критическое значение 3D представлений в обучении роботов в реальном мире. Видео, код и данные доступны на https://3d-diffusion-policy.github.io.
English
Imitation learning provides an efficient way to teach robots dexterous
skills; however, learning complex skills robustly and generalizablely usually
consumes large amounts of human demonstrations. To tackle this challenging
problem, we present 3D Diffusion Policy (DP3), a novel visual imitation
learning approach that incorporates the power of 3D visual representations into
diffusion policies, a class of conditional action generative models. The core
design of DP3 is the utilization of a compact 3D visual representation,
extracted from sparse point clouds with an efficient point encoder. In our
experiments involving 72 simulation tasks, DP3 successfully handles most tasks
with just 10 demonstrations and surpasses baselines with a 55.3% relative
improvement. In 4 real robot tasks, DP3 demonstrates precise control with a
high success rate of 85%, given only 40 demonstrations of each task, and shows
excellent generalization abilities in diverse aspects, including space,
viewpoint, appearance, and instance. Interestingly, in real robot experiments,
DP3 rarely violates safety requirements, in contrast to baseline methods which
frequently do, necessitating human intervention. Our extensive evaluation
highlights the critical importance of 3D representations in real-world robot
learning. Videos, code, and data are available on
https://3d-diffusion-policy.github.io .