Infinity-RoPE: Handlungssteuerbare unendliche Videogenerierung entsteht aus autoregressivem Selbst-Durchlauf
Infinity-RoPE: Action-Controllable Infinite Video Generation Emerges From Autoregressive Self-Rollout
November 25, 2025
papers.authors: Hidir Yesiltepe, Tuna Han Salih Meral, Adil Kaan Akan, Kaan Oktay, Pinar Yanardag
cs.AI
papers.abstract
Aktuelle autoregressive Video-Diffusionsmodelle sind durch drei zentrale Engpässe eingeschränkt: (i) den begrenzten temporalen Horizont, der durch die 3D-Rotary-Positional-Embedding (3D-RoPE) des Basismodells vorgegeben wird, (ii) die langsame Prompt-Reaktionsfähigkeit zur Beibehaltung feingranularer Aktionskontrolle während langer Generierungssequenzen und (iii) die Unfähigkeit, diskontinuierliche filmische Übergänge innerhalb eines einzelnen Generierungsstroms zu realisieren. Wir stellen infty-RoPE vor, ein einheitliches Inferenzzeit-Framework, das alle drei Einschränkungen durch drei miteinander verbundene Komponenten adressiert: Block-Relativistic RoPE, KV Flush und RoPE Cut. Block-Relativistic RoPE reformuliert die temporale Kodierung als bewegliches lokales Bezugssystem, bei dem jeder neu generierte latente Block relativ zum maximalen Frame-Horizont des Basismodells rotiert wird, während frühere Blöcke rückwärts rotiert werden, um die relative temporale Geometrie zu bewahren. Diese relativistische Formulierung eliminiert feste temporale Positionen und ermöglicht kontinuierliche Videogenerierung weit über die grundlegenden Positionsgrenzen hinaus. Um feingranulare Aktionskontrolle ohne Neuencodierung zu erreichen, erneuert KV Flush den KV-Cache durch Beibehaltung lediglich zweier latenter Frames – der globalen Senke und des zuletzt generierten latenten Frames – und gewährleistet dadurch sofortige Prompt-Reaktionsfähigkeit. Schließlich führt RoPE Cut kontrollierte Diskontinuitäten in den temporalen RoPE-Koordinaten ein, was Mehrfachszenenübergänge innerhalb eines einzigen kontinuierlichen Generierungsvorgangs ermöglicht. Zusammengenommen etablieren diese Komponenten infty-RoPE als trainierungsfreie Grundlage für unbegrenzte, steuerbare und filmische Videodiffusion. Umfassende Experimente zeigen, dass infty-RoPE durchgängig frühere autoregressive Modelle in Gesamt-VBench-Scores übertrifft.
English
Current autoregressive video diffusion models are constrained by three core bottlenecks: (i) the finite temporal horizon imposed by the base model's 3D Rotary Positional Embedding (3D-RoPE), (ii) slow prompt responsiveness in maintaining fine-grained action control during long-form rollouts, and (iii) the inability to realize discontinuous cinematic transitions within a single generation stream. We introduce infty-RoPE, a unified inference-time framework that addresses all three limitations through three interconnected components: Block-Relativistic RoPE, KV Flush, and RoPE Cut. Block-Relativistic RoPE reformulates temporal encoding as a moving local reference frame, where each newly generated latent block is rotated relative to the base model's maximum frame horizon while earlier blocks are rotated backward to preserve relative temporal geometry. This relativistic formulation eliminates fixed temporal positions, enabling continuous video generation far beyond the base positional limits. To obtain fine-grained action control without re-encoding, KV Flush renews the KV cache by retaining only two latent frames, the global sink and the last generated latent frame, thereby ensuring immediate prompt responsiveness. Finally, RoPE Cut introduces controlled discontinuities in temporal RoPE coordinates, enabling multi-cut scene transitions within a single continuous rollout. Together, these components establish infty-RoPE as a training-free foundation for infinite-horizon, controllable, and cinematic video diffusion. Comprehensive experiments show that infty-RoPE consistently surpasses previous autoregressive models in overall VBench scores.