Make-Your-Video: Geração de Vídeo Personalizada Utilizando Orientação Textual e Estrutural
Make-Your-Video: Customized Video Generation Using Textual and Structural Guidance
June 1, 2023
Autores: Jinbo Xing, Menghan Xia, Yuxin Liu, Yuechen Zhang, Yong Zhang, Yingqing He, Hanyuan Liu, Haoxin Chen, Xiaodong Cun, Xintao Wang, Ying Shan, Tien-Tsin Wong
cs.AI
Resumo
Criar um vídeo vívido a partir de um evento ou cenário em nossa imaginação é uma experiência verdadeiramente fascinante. Avanços recentes na síntese de texto para vídeo revelaram o potencial de alcançar isso apenas com prompts. Embora o texto seja conveniente para transmitir o contexto geral da cena, ele pode ser insuficiente para um controle preciso. Neste artigo, exploramos a geração de vídeos personalizados utilizando o texto como descrição de contexto e a estrutura de movimento (por exemplo, profundidade quadro a quadro) como orientação concreta. Nosso método, denominado Make-Your-Video, envolve a geração de vídeo com condicionamento conjunto usando um Modelo de Difusão Latente que é pré-treinado para síntese de imagens estáticas e, em seguida, aprimorado para geração de vídeo com a introdução de módulos temporais. Esse esquema de aprendizado em duas etapas não apenas reduz os recursos computacionais necessários, mas também melhora o desempenho ao transferir os conceitos ricos disponíveis em conjuntos de dados de imagens exclusivamente para a geração de vídeo. Além disso, usamos uma estratégia simples, porém eficaz, de máscara de atenção causal para permitir a síntese de vídeos mais longos, o que mitiga efetivamente a possível degradação de qualidade. Os resultados experimentais mostram a superioridade de nosso método em relação às linhas de base existentes, particularmente em termos de coerência temporal e fidelidade à orientação do usuário. Além disso, nosso modelo possibilita várias aplicações intrigantes que demonstram potencial para uso prático.
English
Creating a vivid video from the event or scenario in our imagination is a
truly fascinating experience. Recent advancements in text-to-video synthesis
have unveiled the potential to achieve this with prompts only. While text is
convenient in conveying the overall scene context, it may be insufficient to
control precisely. In this paper, we explore customized video generation by
utilizing text as context description and motion structure (e.g. frame-wise
depth) as concrete guidance. Our method, dubbed Make-Your-Video, involves
joint-conditional video generation using a Latent Diffusion Model that is
pre-trained for still image synthesis and then promoted for video generation
with the introduction of temporal modules. This two-stage learning scheme not
only reduces the computing resources required, but also improves the
performance by transferring the rich concepts available in image datasets
solely into video generation. Moreover, we use a simple yet effective causal
attention mask strategy to enable longer video synthesis, which mitigates the
potential quality degradation effectively. Experimental results show the
superiority of our method over existing baselines, particularly in terms of
temporal coherence and fidelity to users' guidance. In addition, our model
enables several intriguing applications that demonstrate potential for
practical usage.