ChatPaper.aiChatPaper

Block-Cascading: Trainingsfreie Beschleunigung block-kausaler Videomodelle

Block Cascading: Training Free Acceleration of Block-Causal Video Models

November 25, 2025
papers.authors: Hmrishav Bandyopadhyay, Nikhil Pinnaparaju, Rahim Entezari, Jim Scott, Yi-Zhe Song, Varun Jampani
cs.AI

papers.abstract

Die block-kausale Videogenerierung steht vor einem deutlichen Geschwindigkeits-Qualitäts-Kompromiss: Kleine 1,3B-Modelle erreichen nur 16 FPS, während große 14B-Modelle mit 4,5 FPS extrem langsam sind, was Nutzer zur Wahl zwischen Reaktionsfähigkeit und Qualität zwingt. Block Cascading mildert diesen Kompromiss erheblich durch trainierungsfreie Parallelisierung. Unsere zentrale Erkenntnis: Zukünftige Videoblöcke benötigen keine vollständig entrauschten aktuellen Blöcke, um mit der Generierung zu beginnen. Indem wir die Blockgenerierung mit teilweise enträuschtem Kontext aus Vorgängerblöcken starten, wandeln wir sequenzielle Pipelines in parallele Kaskaden um, in denen mehrere Blöcke gleichzeitig entrauscht werden. Mit 5 GPUs, die temporäre Parallelität nutzen, erreichen wir eine ~2-fache Beschleunigung über alle Modellgrößen hinweg: 1,3B-Modelle beschleunigen von 16 auf 30 FPS, 14B-Modelle von 4,5 auf 12,5 FPS. Neben der Inferenzgeschwindigkeit eliminiert Block Cascading Overhead durch KV-Re-Caching (~200 ms) während Kontextwechseln für interaktive Generierung. Umfangreiche Evaluierungen gegen mehrere block-kausale Pipelines belegen keinen signifikanten Qualitätsverlust beim Wechsel von block-kausalen zu Block-Cascading-Pipelines für die Inferenz. Projektseite: https://hmrishavbandy.github.io/block_cascading_page/
English
Block-causal video generation faces a stark speed-quality trade-off: small 1.3B models manage only 16 FPS while large 14B models crawl at 4.5 FPS, forcing users to choose between responsiveness and quality. Block Cascading significantly mitigates this trade-off through training-free parallelization. Our key insight: future video blocks do not need fully denoised current blocks to begin generation. By starting block generation with partially denoised context from predecessors, we transform sequential pipelines into parallel cascades where multiple blocks denoise simultaneously. With 5 GPUs exploiting temporal parallelism, we achieve ~2x acceleration across all model scales: 1.3B models accelerate from 16 to 30 FPS, 14B models from 4.5 to 12.5 FPS. Beyond inference speed, Block Cascading eliminates overhead from KV-recaching (of ~200ms) during context switches for interactive generation. Extensive evaluations validated against multiple block-causal pipelines demonstrate no significant loss in generation quality when switching from block-causal to Block Cascading pipelines for inference. Project Page: https://hmrishavbandy.github.io/block_cascading_page/
PDF74December 1, 2025