ChatPaper.aiChatPaper

Imitação de Movimento em Dois Níveis para Robôs Humanoides

Bi-Level Motion Imitation for Humanoid Robots

October 2, 2024
Autores: Wenshuai Zhao, Yi Zhao, Joni Pajarinen, Michael Muehlebach
cs.AI

Resumo

A aprendizagem por imitação a partir de dados de captura de movimento humano (MoCap) oferece uma maneira promissora de treinar robôs humanoides. No entanto, devido a diferenças na morfologia, como graus variados de liberdade articular e limites de força, a replicação exata de comportamentos humanos pode não ser viável para robôs humanoides. Consequentemente, a incorporação de dados MoCap fisicamente inviáveis nos conjuntos de treinamento pode afetar adversamente o desempenho da política do robô. Para abordar esse problema, propomos um framework de aprendizagem por imitação baseado em otimização em dois níveis que alterna entre a otimização da política do robô e dos dados MoCap alvo. Especificamente, primeiro desenvolvemos um modelo dinâmico latente generativo usando um autoencoder autoconsistente inovador, que aprende representações de movimento esparsas e estruturadas enquanto captura padrões de movimento desejados no conjunto de dados. O modelo dinâmico é então utilizado para gerar movimentos de referência enquanto a representação latente regulariza o processo de imitação de movimento em dois níveis. Simulações realizadas com um modelo realista de um robô humanoide demonstram que nosso método melhora a política do robô modificando os movimentos de referência para serem fisicamente consistentes.
English
Imitation learning from human motion capture (MoCap) data provides a promising way to train humanoid robots. However, due to differences in morphology, such as varying degrees of joint freedom and force limits, exact replication of human behaviors may not be feasible for humanoid robots. Consequently, incorporating physically infeasible MoCap data in training datasets can adversely affect the performance of the robot policy. To address this issue, we propose a bi-level optimization-based imitation learning framework that alternates between optimizing both the robot policy and the target MoCap data. Specifically, we first develop a generative latent dynamics model using a novel self-consistent auto-encoder, which learns sparse and structured motion representations while capturing desired motion patterns in the dataset. The dynamics model is then utilized to generate reference motions while the latent representation regularizes the bi-level motion imitation process. Simulations conducted with a realistic model of a humanoid robot demonstrate that our method enhances the robot policy by modifying reference motions to be physically consistent.

Summary

AI-Generated Summary

PDF12November 16, 2024