ChatPaper.aiChatPaper

A Busca de Priores Torna a Síntese de Texto para Vídeo Melhor

Searching Priors Makes Text-to-Video Synthesis Better

June 5, 2024
Autores: Haoran Cheng, Liang Peng, Linxuan Xia, Yuepeng Hu, Hengjia Li, Qinglin Lu, Xiaofei He, Boxi Wu
cs.AI

Resumo

Avanços significativos em modelos de difusão de vídeo trouxeram progresso substancial ao campo de síntese de texto para vídeo (T2V). No entanto, os modelos existentes de síntese T2V lutam para gerar com precisão dinâmicas de movimento complexas, levando a uma redução no realismo dos vídeos. Uma solução possível seria coletar dados massivos e treinar o modelo com eles, mas isso seria extremamente caro. Para aliviar esse problema, neste artigo, reformulamos o processo típico de geração T2V como um pipeline de geração baseado em busca. Em vez de escalar o treinamento do modelo, empregamos vídeos existentes como banco de dados de prioridades de movimento. Especificamente, dividimos o processo de geração T2V em duas etapas: (i) Para uma entrada de prompt dada, buscamos em conjuntos de dados texto-vídeo existentes para encontrar vídeos com rótulos de texto que correspondam de perto aos movimentos do prompt. Propomos um algoritmo de busca personalizado que enfatiza características de movimento de objetos. (ii) Os vídeos recuperados são processados e destilados em prioridades de movimento para ajustar finamente um modelo T2V base pré-treinado, seguido pela geração dos vídeos desejados usando o prompt de entrada. Ao utilizar as prioridades obtidas dos vídeos buscados, aprimoramos o realismo do movimento dos vídeos gerados. Todas as operações podem ser concluídas em uma única GPU NVIDIA RTX 4090. Validamos nosso método contra modelos T2V state-of-the-art em diversas entradas de prompt. O código será público.
English
Significant advancements in video diffusion models have brought substantial progress to the field of text-to-video (T2V) synthesis. However, existing T2V synthesis model struggle to accurately generate complex motion dynamics, leading to a reduction in video realism. One possible solution is to collect massive data and train the model on it, but this would be extremely expensive. To alleviate this problem, in this paper, we reformulate the typical T2V generation process as a search-based generation pipeline. Instead of scaling up the model training, we employ existing videos as the motion prior database. Specifically, we divide T2V generation process into two steps: (i) For a given prompt input, we search existing text-video datasets to find videos with text labels that closely match the prompt motions. We propose a tailored search algorithm that emphasizes object motion features. (ii) Retrieved videos are processed and distilled into motion priors to fine-tune a pre-trained base T2V model, followed by generating desired videos using input prompt. By utilizing the priors gleaned from the searched videos, we enhance the realism of the generated videos' motion. All operations can be finished on a single NVIDIA RTX 4090 GPU. We validate our method against state-of-the-art T2V models across diverse prompt inputs. The code will be public.
PDF142December 12, 2024