ChatPaper.aiChatPaper

Двухуровневое имитирование движения для гуманоидных роботов

Bi-Level Motion Imitation for Humanoid Robots

October 2, 2024
Авторы: Wenshuai Zhao, Yi Zhao, Joni Pajarinen, Michael Muehlebach
cs.AI

Аннотация

Обучение по подражанию на основе данных захвата движения человека (MoCap) предоставляет многообещающий способ обучения гуманоидных роботов. Однако из-за различий в морфологии, таких как различные уровни свободы суставов и ограничения по силе, точное воспроизведение человеческих поведенческих моделей может быть недостижимо для гуманоидных роботов. Следовательно, включение физически невозможных данных MoCap в обучающие наборы данных может негативно сказаться на производительности политики робота. Для решения этой проблемы мы предлагаем двухуровневую оптимизационную имитационную обучающую структуру, которая чередует оптимизацию как политики робота, так и целевых данных MoCap. Конкретно, сначала мы разрабатываем генеративную модель динамики латентности с использованием новаторского автоэнкодера, который изучает разреженные и структурированные представления движения, захватывая желаемые движения в наборе данных. Затем модель динамики используется для генерации опорных движений, в то время как латентное представление регуляризует двухуровневый процесс имитации движения. Проведенные симуляции с реалистичной моделью гуманоидного робота демонстрируют, что наш метод улучшает политику робота путем модификации опорных движений для достижения физической согласованности.
English
Imitation learning from human motion capture (MoCap) data provides a promising way to train humanoid robots. However, due to differences in morphology, such as varying degrees of joint freedom and force limits, exact replication of human behaviors may not be feasible for humanoid robots. Consequently, incorporating physically infeasible MoCap data in training datasets can adversely affect the performance of the robot policy. To address this issue, we propose a bi-level optimization-based imitation learning framework that alternates between optimizing both the robot policy and the target MoCap data. Specifically, we first develop a generative latent dynamics model using a novel self-consistent auto-encoder, which learns sparse and structured motion representations while capturing desired motion patterns in the dataset. The dynamics model is then utilized to generate reference motions while the latent representation regularizes the bi-level motion imitation process. Simulations conducted with a realistic model of a humanoid robot demonstrate that our method enhances the robot policy by modifying reference motions to be physically consistent.

Summary

AI-Generated Summary

PDF12November 16, 2024