ChatPaper.aiChatPaper

Controle Perpétuo de Humanoides para Avatares Simulados em Tempo Real

Perpetual Humanoid Control for Real-time Simulated Avatars

May 10, 2023
Autores: Zhengyi Luo, Jinkun Cao, Alexander Winkler, Kris Kitani, Weipeng Xu
cs.AI

Resumo

Apresentamos um controlador humanóide baseado em física que alcança imitação de movimento de alta fidelidade e comportamento tolerante a falhas na presença de entradas ruidosas (por exemplo, estimativas de pose a partir de vídeo ou geradas a partir de linguagem) e quedas inesperadas. Nosso controlador escala para o aprendizado de dez mil clipes de movimento sem o uso de forças estabilizadoras externas e aprende a se recuperar naturalmente de estados de falha. Dado um movimento de referência, nosso controlador pode perpetuar o controle de avatares simulados sem a necessidade de reinicializações. Em sua essência, propomos a política de controle multiplicativo progressivo (PMCP), que aloca dinamicamente nova capacidade de rede para aprender sequências de movimento cada vez mais complexas. O PMCP permite uma escalabilidade eficiente para o aprendizado a partir de grandes bancos de dados de movimento e a adição de novas tarefas, como a recuperação de estados de falha, sem esquecimento catastrófico. Demonstramos a eficácia do nosso controlador ao utilizá-lo para imitar poses ruidosas provenientes de estimadores de pose baseados em vídeo e geradores de movimento baseados em linguagem em um caso de uso de avatar multipessoal em tempo real e ao vivo.
English
We present a physics-based humanoid controller that achieves high-fidelity motion imitation and fault-tolerant behavior in the presence of noisy input (e.g. pose estimates from video or generated from language) and unexpected falls. Our controller scales up to learning ten thousand motion clips without using any external stabilizing forces and learns to naturally recover from fail-state. Given reference motion, our controller can perpetually control simulated avatars without requiring resets. At its core, we propose the progressive multiplicative control policy (PMCP), which dynamically allocates new network capacity to learn harder and harder motion sequences. PMCP allows efficient scaling for learning from large-scale motion databases and adding new tasks, such as fail-state recovery, without catastrophic forgetting. We demonstrate the effectiveness of our controller by using it to imitate noisy poses from video-based pose estimators and language-based motion generators in a live and real-time multi-person avatar use case.
PDF11December 15, 2024