ChatPaper.aiChatPaper

MotionStream: Generación de Video en Tiempo Real con Controles de Movimiento Interactivos

MotionStream: Real-Time Video Generation with Interactive Motion Controls

November 3, 2025
Autores: Joonghyuk Shin, Zhengqi Li, Richard Zhang, Jun-Yan Zhu, Jaesik Park, Eli Schechtman, Xun Huang
cs.AI

Resumen

Los métodos actuales de generación de vídeo condicionada por movimiento adolecen de una latencia prohibitiva (minutos por vídeo) y un procesamiento no causal que impide la interacción en tiempo real. Presentamos MotionStream, que permite una latencia inferior al segundo con generación en streaming de hasta 29 FPS en una única GPU. Nuestro enfoque comienza aumentando un modelo de texto a vídeo con control de movimiento, el cual genera vídeos de alta calidad que se adhieren al texto global y a la guía de movimiento local, pero no realiza inferencia sobre la marcha. Por ello, destilamos este profesor bidireccional en un estudiante causal mediante Auto-Forzado con Destilación por Correspondencia de Distribuciones, permitiendo inferencia en streaming en tiempo real. Surgen varios desafíos clave al generar vídeos de horizontes temporales largos y potencialmente infinitos: (1) salvar la brecha de dominio entre el entrenamiento con longitud finita y la extrapolación a horizontes infinitos, (2) sostener una alta calidad evitando la acumulación de errores, y (3) mantener una inferencia rápida, sin incurrir en un crecimiento del coste computacional debido a ventanas de contexto crecientes. Un elemento clave de nuestro enfoque es la introducción de una atención causal deslizante cuidadosamente diseñada, combinada con "sumideros de atención". Al incorporar auto-desarrollo con sumideros de atención y desplazamiento de la caché KV durante el entrenamiento, simulamos adecuadamente las extrapolaciones en tiempo de inferencia con una ventana de contexto fija, permitiendo la generación a velocidad constante de vídeos de longitud arbitraria. Nuestros modelos logran resultados de vanguardia en seguimiento de movimiento y calidad de vídeo, siendo dos órdenes de magnitud más rápidos y permitiendo de forma única streaming de longitud infinita. Con MotionStream, los usuarios pueden dibujar trayectorias, controlar cámaras o transferir movimiento, y ver los resultados desarrollarse en tiempo real, ofreciendo una experiencia verdaderamente interactiva.
English
Current motion-conditioned video generation methods suffer from prohibitive latency (minutes per video) and non-causal processing that prevents real-time interaction. We present MotionStream, enabling sub-second latency with up to 29 FPS streaming generation on a single GPU. Our approach begins by augmenting a text-to-video model with motion control, which generates high-quality videos that adhere to the global text prompt and local motion guidance, but does not perform inference on the fly. As such, we distill this bidirectional teacher into a causal student through Self Forcing with Distribution Matching Distillation, enabling real-time streaming inference. Several key challenges arise when generating videos of long, potentially infinite time-horizons: (1) bridging the domain gap from training on finite length and extrapolating to infinite horizons, (2) sustaining high quality by preventing error accumulation, and (3) maintaining fast inference, without incurring growth in computational cost due to increasing context windows. A key to our approach is introducing carefully designed sliding-window causal attention, combined with attention sinks. By incorporating self-rollout with attention sinks and KV cache rolling during training, we properly simulate inference-time extrapolations with a fixed context window, enabling constant-speed generation of arbitrarily long videos. Our models achieve state-of-the-art results in motion following and video quality while being two orders of magnitude faster, uniquely enabling infinite-length streaming. With MotionStream, users can paint trajectories, control cameras, or transfer motion, and see results unfold in real-time, delivering a truly interactive experience.
PDF296January 19, 2026