Infinity-RoPE: La Generazione di Video Infiniti Controllabile dall'Azione Emerge dall'Auto-Svolgimento Autoregressivo
Infinity-RoPE: Action-Controllable Infinite Video Generation Emerges From Autoregressive Self-Rollout
November 25, 2025
Autori: Hidir Yesiltepe, Tuna Han Salih Meral, Adil Kaan Akan, Kaan Oktay, Pinar Yanardag
cs.AI
Abstract
Gli attuali modelli di diffusione video autoregressivi sono limitati da tre colli di bottiglia fondamentali: (i) l'orizzonte temporale finito imposto dall'Embedding Posizionale Rotatorio 3D (3D-RoPE) del modello base, (ii) la lenta reattività ai prompt nel mantenere un controllo granulare delle azioni durante generazioni di lunga durata, e (iii) l'incapacità di realizzare transizioni cinematografiche discontinue all'interno di un unico flusso generativo. Introduciamo infty-RoPE, un framework unificato per l'inferenza che affronta tutti e tre i limiti attraverso tre componenti interconnesse: RoPE Blocco-Relativistico, KV Flush e RoPE Cut. Il RoPE Blocco-Relativistico riformula la codifica temporale come un sistema di riferimento locale in movimento, in cui ogni nuovo blocco latente generato viene ruotato rispetto all'orizzonte massimo di frame del modello base, mentre i blocchi precedenti vengono ruotati all'indietro per preservare la geometria temporale relativa. Questa formulazione relativistico elimina le posizioni temporali fisse, abilitando una generazione video continua ben oltre i limiti posizionali base. Per ottenere un controllo granulare delle azioni senza ricodifiche, KV Flush rinnova la cache KV conservando solo due frame latenti, il sink globale e l'ultimo frame latente generato, garantendo così una reattività immediata al prompt. Infine, RoPE Cut introduce discontinuità controllate nelle coordinate RoPE temporali, permettendo transizioni di scena multi-cut all'interno di una singola generazione continua. Insieme, queste componenti stabiliscono infty-RoPE come base training-free per la diffusione video a orizzonte infinito, controllabile e cinematografica. Esperimenti completi dimostrano che infty-RoPE supera costantemente i precedenti modelli autoregressivi nei punteggi complessivi di VBench.
English
Current autoregressive video diffusion models are constrained by three core bottlenecks: (i) the finite temporal horizon imposed by the base model's 3D Rotary Positional Embedding (3D-RoPE), (ii) slow prompt responsiveness in maintaining fine-grained action control during long-form rollouts, and (iii) the inability to realize discontinuous cinematic transitions within a single generation stream. We introduce infty-RoPE, a unified inference-time framework that addresses all three limitations through three interconnected components: Block-Relativistic RoPE, KV Flush, and RoPE Cut. Block-Relativistic RoPE reformulates temporal encoding as a moving local reference frame, where each newly generated latent block is rotated relative to the base model's maximum frame horizon while earlier blocks are rotated backward to preserve relative temporal geometry. This relativistic formulation eliminates fixed temporal positions, enabling continuous video generation far beyond the base positional limits. To obtain fine-grained action control without re-encoding, KV Flush renews the KV cache by retaining only two latent frames, the global sink and the last generated latent frame, thereby ensuring immediate prompt responsiveness. Finally, RoPE Cut introduces controlled discontinuities in temporal RoPE coordinates, enabling multi-cut scene transitions within a single continuous rollout. Together, these components establish infty-RoPE as a training-free foundation for infinite-horizon, controllable, and cinematic video diffusion. Comprehensive experiments show that infty-RoPE consistently surpasses previous autoregressive models in overall VBench scores.