ChatPaper.aiChatPaper

Cascata a Blocchi: Accelerazione Senza Addestramento di Modelli Video Causali a Blocchi

Block Cascading: Training Free Acceleration of Block-Causal Video Models

November 25, 2025
Autori: Hmrishav Bandyopadhyay, Nikhil Pinnaparaju, Rahim Entezari, Jim Scott, Yi-Zhe Song, Varun Jampani
cs.AI

Abstract

La generazione video block-causal affronta un netto compromesso velocità-qualità: piccoli modelli da 1,3B raggiungono solo 16 FPS, mentre modelli grandi da 14B procedono a soli 4,5 FPS, costringendo gli utenti a scegliere tra reattività e qualità. Il Block Cascading mitiga significativamente questo compromesso attraverso una parallelizzazione senza training. La nostra intuizione chiave: i blocchi video futuri non necessitano di blocchi correnti completamente denoisati per iniziare la generazione. Avviando la generazione dei blocchi con contesto parzialmente denoisato dai predecessori, trasformiamo pipeline sequenziali in cascate parallele dove più blocchi denoisano simultaneamente. Con 5 GPU che sfruttano il parallelismo temporale, otteniamo un’accelerazione di ~2x su tutte le scale di modelli: i modelli da 1,3B accelerano da 16 a 30 FPS, quelli da 14B da 4,5 a 12,5 FPS. Oltre alla velocità di inferenza, il Block Cascading elimina l’overhead del KV-recaching (~200ms) durante i cambi di contesto per la generazione interattiva. Valutazioni estensive contro multiple pipeline block-causal dimostrano nessuna perdita significativa nella qualità di generazione passando da pipeline block-causal a pipeline Block Cascading per l'inferenza. Pagina del progetto: https://hmrishavbandy.github.io/block_cascading_page/
English
Block-causal video generation faces a stark speed-quality trade-off: small 1.3B models manage only 16 FPS while large 14B models crawl at 4.5 FPS, forcing users to choose between responsiveness and quality. Block Cascading significantly mitigates this trade-off through training-free parallelization. Our key insight: future video blocks do not need fully denoised current blocks to begin generation. By starting block generation with partially denoised context from predecessors, we transform sequential pipelines into parallel cascades where multiple blocks denoise simultaneously. With 5 GPUs exploiting temporal parallelism, we achieve ~2x acceleration across all model scales: 1.3B models accelerate from 16 to 30 FPS, 14B models from 4.5 to 12.5 FPS. Beyond inference speed, Block Cascading eliminates overhead from KV-recaching (of ~200ms) during context switches for interactive generation. Extensive evaluations validated against multiple block-causal pipelines demonstrate no significant loss in generation quality when switching from block-causal to Block Cascading pipelines for inference. Project Page: https://hmrishavbandy.github.io/block_cascading_page/
PDF74December 1, 2025