ChatPaper.aiChatPaper

Make-An-Animation : Génération à grande échelle de mouvements humains 3D conditionnés par texte

Make-An-Animation: Large-Scale Text-conditional 3D Human Motion Generation

May 16, 2023
Auteurs: Samaneh Azadi, Akbar Shah, Thomas Hayes, Devi Parikh, Sonal Gupta
cs.AI

Résumé

La génération de mouvements humains guidée par texte a suscité un intérêt considérable en raison de ses applications impactantes dans les domaines de l'animation et de la robotique. Récemment, l'utilisation de modèles de diffusion pour la génération de mouvements a permis d'améliorer la qualité des mouvements générés. Cependant, les approches existantes sont limitées par leur dépendance à des données de capture de mouvement relativement réduites, ce qui entraîne des performances médiocres sur des prompts plus diversifiés et réalistes. Dans cet article, nous présentons Make-An-Animation, un modèle de génération de mouvements humains conditionné par texte qui apprend des poses et des prompts plus variés à partir de vastes ensembles de données image-texte, permettant une amélioration significative des performances par rapport aux travaux précédents. Make-An-Animation est entraîné en deux étapes. Tout d'abord, nous entraînons le modèle sur un vaste ensemble de données soigneusement sélectionné de paires (texte, pseudo-pose statique) extraites de jeux de données image-texte. Ensuite, nous affinons le modèle sur des données de capture de mouvement, en ajoutant des couches supplémentaires pour modéliser la dimension temporelle. Contrairement aux modèles de diffusion précédents pour la génération de mouvements, Make-An-Animation utilise une architecture U-Net similaire aux récents modèles de génération de texte-à-vidéo. L'évaluation humaine du réalisme des mouvements et de leur alignement avec le texte d'entrée montre que notre modèle atteint des performances de pointe en matière de génération de texte-à-mouvement.
English
Text-guided human motion generation has drawn significant interest because of its impactful applications spanning animation and robotics. Recently, application of diffusion models for motion generation has enabled improvements in the quality of generated motions. However, existing approaches are limited by their reliance on relatively small-scale motion capture data, leading to poor performance on more diverse, in-the-wild prompts. In this paper, we introduce Make-An-Animation, a text-conditioned human motion generation model which learns more diverse poses and prompts from large-scale image-text datasets, enabling significant improvement in performance over prior works. Make-An-Animation is trained in two stages. First, we train on a curated large-scale dataset of (text, static pseudo-pose) pairs extracted from image-text datasets. Second, we fine-tune on motion capture data, adding additional layers to model the temporal dimension. Unlike prior diffusion models for motion generation, Make-An-Animation uses a U-Net architecture similar to recent text-to-video generation models. Human evaluation of motion realism and alignment with input text shows that our model reaches state-of-the-art performance on text-to-motion generation.
PDF30December 15, 2024