ChatPaper.aiChatPaper

Cut2Next: Generierung der nächsten Einstellung durch In-Context-Tuning

Cut2Next: Generating Next Shot via In-Context Tuning

August 11, 2025
papers.authors: Jingwen He, Hongbo Liu, Jiajun Li, Ziqi Huang, Yu Qiao, Wanli Ouyang, Ziwei Liu
cs.AI

papers.abstract

Effektive Multi-Shot-Generierung erfordert gezielte, filmähnliche Übergänge und strikte filmische Kontinuität. Aktuelle Methoden priorisieren jedoch oft grundlegende visuelle Konsistenz und vernachlässigen dabei entscheidende Schnittmuster (z. B. Schuss/Gegenschuss, Einblendungen), die den narrativen Fluss für fesselndes Storytelling vorantreiben. Dies führt zu Ergebnissen, die zwar visuell kohärent sein mögen, aber an narrativer Raffinesse und wahrer filmischer Integrität mangeln. Um diese Lücke zu schließen, führen wir Next Shot Generation (NSG) ein: die Synthese eines nachfolgenden, hochwertigen Shots, der sich kritisch an professionelle Schnittmuster hält und gleichzeitig strenge filmische Kontinuität bewahrt. Unser Framework, Cut2Next, nutzt einen Diffusion Transformer (DiT). Es setzt In-Context-Tuning ein, das durch eine neuartige Hierarchical Multi-Prompting-Strategie geleitet wird. Diese Strategie verwendet Relational Prompts, um den Gesamtkontext und die Schnittstile zwischen den Shots zu definieren. Individual Prompts spezifizieren dann den Inhalt und die filmografischen Attribute pro Shot. Zusammen leiten sie Cut2Next an, filmisch angemessene nächste Shots zu generieren. Architektonische Innovationen, Context-Aware Condition Injection (CACI) und Hierarchical Attention Mask (HAM), integrieren diese vielfältigen Signale weiter, ohne neue Parameter einzuführen. Wir erstellen die Datensätze RawCuts (groß angelegt) und CuratedCuts (verfeinert), beide mit hierarchischen Prompts, und führen CutBench zur Bewertung ein. Experimente zeigen, dass Cut2Next in visueller Konsistenz und Texttreue überzeugt. Entscheidend ist, dass Benutzerstudien eine starke Präferenz für Cut2Next offenbaren, insbesondere für seine Einhaltung der beabsichtigten Schnittmuster und der gesamten filmischen Kontinuität, was seine Fähigkeit zur Generierung hochwertiger, narrativ ausdrucksstarker und filmisch kohärenter nachfolgender Shots bestätigt.
English
Effective multi-shot generation demands purposeful, film-like transitions and strict cinematic continuity. Current methods, however, often prioritize basic visual consistency, neglecting crucial editing patterns (e.g., shot/reverse shot, cutaways) that drive narrative flow for compelling storytelling. This yields outputs that may be visually coherent but lack narrative sophistication and true cinematic integrity. To bridge this, we introduce Next Shot Generation (NSG): synthesizing a subsequent, high-quality shot that critically conforms to professional editing patterns while upholding rigorous cinematic continuity. Our framework, Cut2Next, leverages a Diffusion Transformer (DiT). It employs in-context tuning guided by a novel Hierarchical Multi-Prompting strategy. This strategy uses Relational Prompts to define overall context and inter-shot editing styles. Individual Prompts then specify per-shot content and cinematographic attributes. Together, these guide Cut2Next to generate cinematically appropriate next shots. Architectural innovations, Context-Aware Condition Injection (CACI) and Hierarchical Attention Mask (HAM), further integrate these diverse signals without introducing new parameters. We construct RawCuts (large-scale) and CuratedCuts (refined) datasets, both with hierarchical prompts, and introduce CutBench for evaluation. Experiments show Cut2Next excels in visual consistency and text fidelity. Crucially, user studies reveal a strong preference for Cut2Next, particularly for its adherence to intended editing patterns and overall cinematic continuity, validating its ability to generate high-quality, narratively expressive, and cinematically coherent subsequent shots.
PDF123August 13, 2025