ChatPaper.aiChatPaper

Rete di Diffusione a Doppio Flusso per la Generazione di Video da Testo

Dual-Stream Diffusion Net for Text-to-Video Generation

August 16, 2023
Autori: Binhui Liu, Xin Liu, Anbo Dai, Zhiyong Zeng, Zhen Cui, Jian Yang
cs.AI

Abstract

Con l'emergere dei modelli di diffusione, recentemente la generazione di video da testo ha attirato un'attenzione crescente. Tuttavia, un importante collo di bottiglia è che i video generati tendono spesso a presentare alcuni sfarfallii e artefatti. In questo lavoro, proponiamo una rete di diffusione a doppio flusso (DSDN) per migliorare la coerenza delle variazioni di contenuto nella generazione di video. In particolare, i due flussi di diffusione progettati, i rami del contenuto video e del movimento, non solo possono operare separatamente nei loro spazi privati per produrre variazioni video personalizzate e contenuti, ma possono anche essere ben allineati tra i domini del contenuto e del movimento sfruttando il nostro modulo di interazione cross-transformer progettato, il quale favorisce la fluidità dei video generati. Inoltre, introduciamo anche un decompositore e un combinatore di movimento per facilitare le operazioni sul movimento video. Esperimenti qualitativi e quantitativi dimostrano che il nostro metodo è in grado di produrre video continui sorprendenti con meno sfarfallii.
English
With the emerging diffusion models, recently, text-to-video generation has aroused increasing attention. But an important bottleneck therein is that generative videos often tend to carry some flickers and artifacts. In this work, we propose a dual-stream diffusion net (DSDN) to improve the consistency of content variations in generating videos. In particular, the designed two diffusion streams, video content and motion branches, could not only run separately in their private spaces for producing personalized video variations as well as content, but also be well-aligned between the content and motion domains through leveraging our designed cross-transformer interaction module, which would benefit the smoothness of generated videos. Besides, we also introduce motion decomposer and combiner to faciliate the operation on video motion. Qualitative and quantitative experiments demonstrate that our method could produce amazing continuous videos with fewer flickers.
PDF253May 8, 2026