ChatPaper.aiChatPaper

Imitación de Movimiento de Doble Nivel para Robots Humanoides

Bi-Level Motion Imitation for Humanoid Robots

October 2, 2024
Autores: Wenshuai Zhao, Yi Zhao, Joni Pajarinen, Michael Muehlebach
cs.AI

Resumen

El aprendizaje por imitación a partir de datos de captura de movimiento humano (MoCap) ofrece una forma prometedora de entrenar robots humanoides. Sin embargo, debido a diferencias en la morfología, como variaciones en los grados de libertad de las articulaciones y límites de fuerza, la replicación exacta de comportamientos humanos puede no ser factible para los robots humanoides. En consecuencia, la incorporación de datos MoCap físicamente inviables en conjuntos de datos de entrenamiento puede afectar negativamente el rendimiento de la política del robot. Para abordar este problema, proponemos un marco de aprendizaje por imitación basado en optimización de dos niveles que alterna entre la optimización de la política del robot y los datos MoCap objetivo. Específicamente, primero desarrollamos un modelo generativo de dinámicas latentes utilizando un novedoso auto-codificador auto-consistente, que aprende representaciones de movimiento dispersas y estructuradas mientras captura patrones de movimiento deseados en el conjunto de datos. Luego, el modelo de dinámicas se utiliza para generar movimientos de referencia mientras que la representación latente regulariza el proceso de imitación de movimiento de dos niveles. Simulaciones realizadas con un modelo realista de un robot humanoide demuestran que nuestro método mejora la política del robot al modificar los movimientos de referencia para que sean físicamente consistentes.
English
Imitation learning from human motion capture (MoCap) data provides a promising way to train humanoid robots. However, due to differences in morphology, such as varying degrees of joint freedom and force limits, exact replication of human behaviors may not be feasible for humanoid robots. Consequently, incorporating physically infeasible MoCap data in training datasets can adversely affect the performance of the robot policy. To address this issue, we propose a bi-level optimization-based imitation learning framework that alternates between optimizing both the robot policy and the target MoCap data. Specifically, we first develop a generative latent dynamics model using a novel self-consistent auto-encoder, which learns sparse and structured motion representations while capturing desired motion patterns in the dataset. The dynamics model is then utilized to generate reference motions while the latent representation regularizes the bi-level motion imitation process. Simulations conducted with a realistic model of a humanoid robot demonstrate that our method enhances the robot policy by modifying reference motions to be physically consistent.

Summary

AI-Generated Summary

PDF12November 16, 2024