ChatPaper.aiChatPaper

MotionStream: Real-time videogeneratie met interactieve bewegingsbesturing

MotionStream: Real-Time Video Generation with Interactive Motion Controls

November 3, 2025
Auteurs: Joonghyuk Shin, Zhengqi Li, Richard Zhang, Jun-Yan Zhu, Jaesik Park, Eli Schechtman, Xun Huang
cs.AI

Samenvatting

Huidige methoden voor videogeneratie op basis van beweging hebben last van verboden latentie (minuten per video) en niet-causale verwerking die real-time interactie onmogelijk maakt. Wij presenteren MotionStream, dat subseconden latentie mogelijk maakt met een streaminggeneratie tot 29 FPS op een enkele GPU. Onze aanpak begint met het uitbreiden van een tekst-naar-videomodel met bewegingscontrole, dat hoogwaardige video's genereert die voldoen aan de globale tekstprompt en lokale bewegingsrichtlijnen, maar geen real-time inferentie uitvoert. Vervolgens distilleren we deze bidirectionele leraar in een causale student via Self Forcing met Distribution Matching Distillation, waardoor real-time streaminginferentie mogelijk wordt. Er doen zich verschillende belangrijke uitdagingen voor bij het genereren van video's met lange, mogelijk oneindige tijdshorizons: (1) het overbruggen van de domeinkloof tussen training op eindige lengte en extrapolatie naar oneindige horizons, (2) het handhaven van hoge kwaliteit door het voorkomen van foutaccumulatie, en (3) het behouden van snelle inferentie zonder groei in rekenkosten door toenemende contextvensters. Een sleutelelement van onze aanpak is de introductie van zorgvuldig ontworpen causal attention met schuifvensters, gecombineerd met attention sinks. Door self-rollout met attention sinks en KV-cache-rolling tijdens de training te incorporeren, simuleren we correcte inferentietijd-extrapolaties met een vast contextvenster, waardoor generatie met constante snelheid van willekeurig lange video's mogelijk wordt. Onze modellen behalen state-of-the-art resultaten in bewegingvolging en videokwaliteit, terwijl ze twee orden van grootte sneller zijn en uniek in staat zijn tot streaming van oneindige lengte. Met MotionStream kunnen gebruikers trajecten tekenen, camera's besturen of beweging overdragen, en de resultaten in real-time zien ontvouwen, wat een werkelijk interactieve ervaring biedt.
English
Current motion-conditioned video generation methods suffer from prohibitive latency (minutes per video) and non-causal processing that prevents real-time interaction. We present MotionStream, enabling sub-second latency with up to 29 FPS streaming generation on a single GPU. Our approach begins by augmenting a text-to-video model with motion control, which generates high-quality videos that adhere to the global text prompt and local motion guidance, but does not perform inference on the fly. As such, we distill this bidirectional teacher into a causal student through Self Forcing with Distribution Matching Distillation, enabling real-time streaming inference. Several key challenges arise when generating videos of long, potentially infinite time-horizons: (1) bridging the domain gap from training on finite length and extrapolating to infinite horizons, (2) sustaining high quality by preventing error accumulation, and (3) maintaining fast inference, without incurring growth in computational cost due to increasing context windows. A key to our approach is introducing carefully designed sliding-window causal attention, combined with attention sinks. By incorporating self-rollout with attention sinks and KV cache rolling during training, we properly simulate inference-time extrapolations with a fixed context window, enabling constant-speed generation of arbitrarily long videos. Our models achieve state-of-the-art results in motion following and video quality while being two orders of magnitude faster, uniquely enabling infinite-length streaming. With MotionStream, users can paint trajectories, control cameras, or transfer motion, and see results unfold in real-time, delivering a truly interactive experience.
PDF276December 2, 2025