ChatPaper.aiChatPaper

FlowMo: Variantie-gebaseerde Flow Guidance voor Samenhangende Beweging in Videogeneratie

FlowMo: Variance-Based Flow Guidance for Coherent Motion in Video Generation

June 1, 2025
Auteurs: Ariel Shaulov, Itay Hazan, Lior Wolf, Hila Chefer
cs.AI

Samenvatting

Text-to-video diffusiemodellen staan erom bekend beperkt te zijn in hun vermogen om temporele aspecten zoals beweging, fysica en dynamische interacties te modelleren. Bestaande benaderingen pakken deze beperking aan door het model opnieuw te trainen of externe conditioneringssignalen in te voeren om temporele consistentie af te dwingen. In dit werk onderzoeken we of een betekenisvolle temporele representatie direct kan worden geëxtraheerd uit de voorspellingen van een vooraf getraind model, zonder aanvullende training of hulpinvoeren. We introduceren FlowMo, een nieuwe trainingsvrije begeleidingsmethode die bewegingscoherentie verbetert door alleen gebruik te maken van de eigen voorspellingen van het model in elke diffusiestap. FlowMo leidt eerst een uiterlijk-ongebiaseerde temporele representatie af door de afstand te meten tussen latents die corresponderen met opeenvolgende frames. Dit benadrukt de impliciete temporele structuur die door het model wordt voorspeld. Vervolgens schat het de bewegingscoherentie door de patchgewijze variantie over de temporele dimensie te meten en begeleidt het model om deze variantie dynamisch te verminderen tijdens het bemonsteren. Uitgebreide experimenten met meerdere text-to-video modellen tonen aan dat FlowMo de bewegingscoherentie aanzienlijk verbetert zonder in te leveren op visuele kwaliteit of promptafstemming, wat een effectieve plug-and-play oplossing biedt voor het verbeteren van de temporele betrouwbaarheid van vooraf getrainde videodiffusiemodellen.
English
Text-to-video diffusion models are notoriously limited in their ability to model temporal aspects such as motion, physics, and dynamic interactions. Existing approaches address this limitation by retraining the model or introducing external conditioning signals to enforce temporal consistency. In this work, we explore whether a meaningful temporal representation can be extracted directly from the predictions of a pre-trained model without any additional training or auxiliary inputs. We introduce FlowMo, a novel training-free guidance method that enhances motion coherence using only the model's own predictions in each diffusion step. FlowMo first derives an appearance-debiased temporal representation by measuring the distance between latents corresponding to consecutive frames. This highlights the implicit temporal structure predicted by the model. It then estimates motion coherence by measuring the patch-wise variance across the temporal dimension and guides the model to reduce this variance dynamically during sampling. Extensive experiments across multiple text-to-video models demonstrate that FlowMo significantly improves motion coherence without sacrificing visual quality or prompt alignment, offering an effective plug-and-play solution for enhancing the temporal fidelity of pre-trained video diffusion models.
PDF142June 4, 2025