ChatPaper.aiChatPaper

Make-Your-Video: Geração de Vídeo Personalizada Utilizando Orientação Textual e Estrutural

Make-Your-Video: Customized Video Generation Using Textual and Structural Guidance

June 1, 2023
Autores: Jinbo Xing, Menghan Xia, Yuxin Liu, Yuechen Zhang, Yong Zhang, Yingqing He, Hanyuan Liu, Haoxin Chen, Xiaodong Cun, Xintao Wang, Ying Shan, Tien-Tsin Wong
cs.AI

Resumo

Criar um vídeo vívido a partir de um evento ou cenário em nossa imaginação é uma experiência verdadeiramente fascinante. Avanços recentes na síntese de texto para vídeo revelaram o potencial de alcançar isso apenas com prompts. Embora o texto seja conveniente para transmitir o contexto geral da cena, ele pode ser insuficiente para um controle preciso. Neste artigo, exploramos a geração de vídeos personalizados utilizando o texto como descrição de contexto e a estrutura de movimento (por exemplo, profundidade quadro a quadro) como orientação concreta. Nosso método, denominado Make-Your-Video, envolve a geração de vídeo com condicionamento conjunto usando um Modelo de Difusão Latente que é pré-treinado para síntese de imagens estáticas e, em seguida, aprimorado para geração de vídeo com a introdução de módulos temporais. Esse esquema de aprendizado em duas etapas não apenas reduz os recursos computacionais necessários, mas também melhora o desempenho ao transferir os conceitos ricos disponíveis em conjuntos de dados de imagens exclusivamente para a geração de vídeo. Além disso, usamos uma estratégia simples, porém eficaz, de máscara de atenção causal para permitir a síntese de vídeos mais longos, o que mitiga efetivamente a possível degradação de qualidade. Os resultados experimentais mostram a superioridade de nosso método em relação às linhas de base existentes, particularmente em termos de coerência temporal e fidelidade à orientação do usuário. Além disso, nosso modelo possibilita várias aplicações intrigantes que demonstram potencial para uso prático.
English
Creating a vivid video from the event or scenario in our imagination is a truly fascinating experience. Recent advancements in text-to-video synthesis have unveiled the potential to achieve this with prompts only. While text is convenient in conveying the overall scene context, it may be insufficient to control precisely. In this paper, we explore customized video generation by utilizing text as context description and motion structure (e.g. frame-wise depth) as concrete guidance. Our method, dubbed Make-Your-Video, involves joint-conditional video generation using a Latent Diffusion Model that is pre-trained for still image synthesis and then promoted for video generation with the introduction of temporal modules. This two-stage learning scheme not only reduces the computing resources required, but also improves the performance by transferring the rich concepts available in image datasets solely into video generation. Moreover, we use a simple yet effective causal attention mask strategy to enable longer video synthesis, which mitigates the potential quality degradation effectively. Experimental results show the superiority of our method over existing baselines, particularly in terms of temporal coherence and fidelity to users' guidance. In addition, our model enables several intriguing applications that demonstrate potential for practical usage.
PDF51December 15, 2024