ChatPaper.aiChatPaper

Mobius: Tekst naar Naadloze Video-lus Generatie via Latente Verschuiving

Mobius: Text to Seamless Looping Video Generation via Latent Shift

February 27, 2025
Auteurs: Xiuli Bi, Jianfei Yuan, Bo Liu, Yong Zhang, Xiaodong Cun, Chi-Man Pun, Bin Xiao
cs.AI

Samenvatting

We presenteren Mobius, een nieuwe methode om naadloos lussende video's te genereren vanuit tekstbeschrijvingen zonder enige gebruikersannotaties, waardoor nieuwe visuele materialen worden gecreëerd voor multimediapresentaties. Onze methode hergebruikt het voorgeleerde videolatentiediffusiemodel voor het genereren van lussende video's vanuit tekstprompts zonder enige training. Tijdens inferentie construeren we eerst een latentiecirkel door het verbinden van het start- en eindgeluid van de video's. Aangezien de temporele consistentie kan worden gehandhaafd door de context van het videodiffusiemodel, voeren we meervoudige latentie-ruisvermindering uit door geleidelijk het latentie van het eerste frame naar het einde te verschuiven in elke stap. Als gevolg hiervan varieert de ruisonderdrukkingscontext in elke stap terwijl de consistentie gedurende het inferentieproces behouden blijft. Bovendien kan de latentiecirkel in onze methode van elke lengte zijn. Dit breidt onze latentieverschuivingsbenadering uit om naadloze lussende video's te genereren buiten de context van het videodiffusiemodel. In tegenstelling tot eerdere cinemagraphs vereist de voorgestelde methode geen afbeelding als verschijning, wat de bewegingen van de gegenereerde resultaten zou beperken. In plaats daarvan kan onze methode meer dynamische beweging en een betere visuele kwaliteit produceren. We voeren meerdere experimenten en vergelijkingen uit om de effectiviteit van de voorgestelde methode te verifiëren, waarbij we de doeltreffendheid ervan in verschillende scenario's aantonen. Alle code zal beschikbaar worden gesteld.
English
We present Mobius, a novel method to generate seamlessly looping videos from text descriptions directly without any user annotations, thereby creating new visual materials for the multi-media presentation. Our method repurposes the pre-trained video latent diffusion model for generating looping videos from text prompts without any training. During inference, we first construct a latent cycle by connecting the starting and ending noise of the videos. Given that the temporal consistency can be maintained by the context of the video diffusion model, we perform multi-frame latent denoising by gradually shifting the first-frame latent to the end in each step. As a result, the denoising context varies in each step while maintaining consistency throughout the inference process. Moreover, the latent cycle in our method can be of any length. This extends our latent-shifting approach to generate seamless looping videos beyond the scope of the video diffusion model's context. Unlike previous cinemagraphs, the proposed method does not require an image as appearance, which will restrict the motions of the generated results. Instead, our method can produce more dynamic motion and better visual quality. We conduct multiple experiments and comparisons to verify the effectiveness of the proposed method, demonstrating its efficacy in different scenarios. All the code will be made available.

Summary

AI-Generated Summary

PDF192February 28, 2025