ChatPaper.aiChatPaper

Cut2Next: Generazione del Prossimo Shot tramite Ottimizzazione In-Contexto

Cut2Next: Generating Next Shot via In-Context Tuning

August 11, 2025
Autori: Jingwen He, Hongbo Liu, Jiajun Li, Ziqi Huang, Yu Qiao, Wanli Ouyang, Ziwei Liu
cs.AI

Abstract

La generazione efficace di scene multiple richiede transizioni intenzionali, simili a quelle cinematografiche, e una rigorosa continuità filmica. I metodi attuali, tuttavia, spesso privilegiano una coerenza visiva di base, trascurando modelli di montaggio cruciali (ad esempio, campo/controcampo, inserti) che guidano il flusso narrativo per una narrazione avvincente. Ciò produce risultati che possono essere visivamente coerenti ma privi di sofisticazione narrativa e di una vera integrità cinematografica. Per colmare questa lacuna, introduciamo la Next Shot Generation (NSG): la sintesi di una scena successiva di alta qualità che si conforma criticamente ai modelli di montaggio professionale mantenendo una rigorosa continuità cinematografica. Il nostro framework, Cut2Next, sfrutta un Diffusion Transformer (DiT). Utilizza un tuning in-context guidato da una nuova strategia di Hierarchical Multi-Prompting. Questa strategia impiega Relational Prompts per definire il contesto generale e gli stili di montaggio inter-scena. Gli Individual Prompts specificano poi il contenuto per ogni scena e gli attributi cinematografici. Insieme, questi guidano Cut2Next per generare scene successive cinematicamente appropriate. Innovazioni architetturali, Context-Aware Condition Injection (CACI) e Hierarchical Attention Mask (HAM), integrano ulteriormente questi segnali diversi senza introdurre nuovi parametri. Costruiamo i dataset RawCuts (su larga scala) e CuratedCuts (raffinati), entrambi con prompt gerarchici, e introduciamo CutBench per la valutazione. Gli esperimenti mostrano che Cut2Next eccelle nella coerenza visiva e nella fedeltà testuale. Crucialmente, studi sugli utenti rivelano una forte preferenza per Cut2Next, in particolare per la sua aderenza ai modelli di montaggio intenzionali e alla continuità cinematografica complessiva, validando la sua capacità di generare scene successive di alta qualità, espressive narrativamente e coerenti cinematicamente.
English
Effective multi-shot generation demands purposeful, film-like transitions and strict cinematic continuity. Current methods, however, often prioritize basic visual consistency, neglecting crucial editing patterns (e.g., shot/reverse shot, cutaways) that drive narrative flow for compelling storytelling. This yields outputs that may be visually coherent but lack narrative sophistication and true cinematic integrity. To bridge this, we introduce Next Shot Generation (NSG): synthesizing a subsequent, high-quality shot that critically conforms to professional editing patterns while upholding rigorous cinematic continuity. Our framework, Cut2Next, leverages a Diffusion Transformer (DiT). It employs in-context tuning guided by a novel Hierarchical Multi-Prompting strategy. This strategy uses Relational Prompts to define overall context and inter-shot editing styles. Individual Prompts then specify per-shot content and cinematographic attributes. Together, these guide Cut2Next to generate cinematically appropriate next shots. Architectural innovations, Context-Aware Condition Injection (CACI) and Hierarchical Attention Mask (HAM), further integrate these diverse signals without introducing new parameters. We construct RawCuts (large-scale) and CuratedCuts (refined) datasets, both with hierarchical prompts, and introduce CutBench for evaluation. Experiments show Cut2Next excels in visual consistency and text fidelity. Crucially, user studies reveal a strong preference for Cut2Next, particularly for its adherence to intended editing patterns and overall cinematic continuity, validating its ability to generate high-quality, narratively expressive, and cinematically coherent subsequent shots.
PDF133August 13, 2025