ChatPaper.aiChatPaper

ヒューマノイドロボットのためのバイレベル動作模倣

Bi-Level Motion Imitation for Humanoid Robots

October 2, 2024
著者: Wenshuai Zhao, Yi Zhao, Joni Pajarinen, Michael Muehlebach
cs.AI

要旨

ヒューマンモーションキャプチャ(MoCap)データからの模倣学習は、ヒューマノイドロボットを訓練する有望な方法を提供します。ただし、関節の自由度や力の制限などの形態学的な違いにより、ヒューマノイドロボットにとって人間の行動を正確に複製することが困難な場合があります。そのため、物理的に実現不可能なMoCapデータを訓練データセットに組み込むことは、ロボットポリシーのパフォーマンスに悪影響を与える可能性があります。この問題に対処するために、ロボットポリシーと目標となるMoCapデータの両方を最適化するバイレベル最適化ベースの模倣学習フレームワークを提案します。具体的には、まず、新しい自己整合オートエンコーダを使用して、疎で構造化されたモーション表現を学習し、データセット内の望ましいモーションパターンを捉えるジェネレーティブ潜在ダイナミクスモデルを開発します。次に、ダイナミクスモデルを使用してリファレンスモーションを生成し、潜在表現がバイレベルモーション模倣プロセスを正規化します。ヒューマノイドロボットの現実的なモデルで実施されたシミュレーションは、当社の手法がリファレンスモーションを物理的に整合させることでロボットポリシーを向上させることを示しています。
English
Imitation learning from human motion capture (MoCap) data provides a promising way to train humanoid robots. However, due to differences in morphology, such as varying degrees of joint freedom and force limits, exact replication of human behaviors may not be feasible for humanoid robots. Consequently, incorporating physically infeasible MoCap data in training datasets can adversely affect the performance of the robot policy. To address this issue, we propose a bi-level optimization-based imitation learning framework that alternates between optimizing both the robot policy and the target MoCap data. Specifically, we first develop a generative latent dynamics model using a novel self-consistent auto-encoder, which learns sparse and structured motion representations while capturing desired motion patterns in the dataset. The dynamics model is then utilized to generate reference motions while the latent representation regularizes the bi-level motion imitation process. Simulations conducted with a realistic model of a humanoid robot demonstrate that our method enhances the robot policy by modifying reference motions to be physically consistent.

Summary

AI-Generated Summary

PDF12November 16, 2024