ChatPaper.aiChatPaper

MotionGPT: Modelos de Lenguaje Ajustados como Generadores de Movimiento de Propósito General

MotionGPT: Finetuned LLMs are General-Purpose Motion Generators

June 19, 2023
Autores: Yaqi Zhang, Di Huang, Bin Liu, Shixiang Tang, Yan Lu, Lu Chen, Lei Bai, Qi Chu, Nenghai Yu, Wanli Ouyang
cs.AI

Resumen

La generación de movimientos humanos realistas a partir de descripciones de acciones dadas ha experimentado avances significativos debido a la creciente demanda de humanos digitales. Si bien trabajos recientes han logrado resultados impresionantes en la generación de movimientos directamente a partir de descripciones textuales de acciones, a menudo solo admiten una única modalidad de la señal de control, lo que limita su aplicación en la industria real de humanos digitales. Este artículo presenta un Generador de Movimiento de Propósito General (MotionGPT) que puede utilizar señales de control multimodales, por ejemplo, texto y poses de un solo fotograma, para generar movimientos humanos consecutivos al tratar las señales multimodales como tokens de entrada especiales en modelos de lenguaje de gran escala (LLMs). Específicamente, primero cuantizamos las señales de control multimodales en códigos discretos y luego las formulamos en una instrucción de prompt unificada para solicitar a los LLMs que generen la respuesta de movimiento. Nuestro MotionGPT demuestra un modelo unificado de generación de movimiento humano con señales de control multimodales al ajustar solo el 0.4% de los parámetros del LLM. Hasta donde sabemos, MotionGPT es el primer método en generar movimiento humano mediante señales de control multimodales, lo que esperamos pueda arrojar luz sobre esta nueva dirección. Los códigos se liberarán tras la aceptación.
English
Generating realistic human motion from given action descriptions has experienced significant advancements because of the emerging requirement of digital humans. While recent works have achieved impressive results in generating motion directly from textual action descriptions, they often support only a single modality of the control signal, which limits their application in the real digital human industry. This paper presents a Motion General-Purpose generaTor (MotionGPT) that can use multimodal control signals, e.g., text and single-frame poses, for generating consecutive human motions by treating multimodal signals as special input tokens in large language models (LLMs). Specifically, we first quantize multimodal control signals into discrete codes and then formulate them in a unified prompt instruction to ask the LLMs to generate the motion answer. Our MotionGPT demonstrates a unified human motion generation model with multimodal control signals by tuning a mere 0.4% of LLM parameters. To the best of our knowledge, MotionGPT is the first method to generate human motion by multimodal control signals, which we hope can shed light on this new direction. Codes shall be released upon acceptance.
PDF181December 15, 2024