ChatPaper.aiChatPaper

Gen-L-Video: Multi-Text-zu-Langvideo-Generierung durch temporales Co-Entrauschen

Gen-L-Video: Multi-Text to Long Video Generation via Temporal Co-Denoising

May 29, 2023
Autoren: Fu-Yun Wang, Wenshuo Chen, Guanglu Song, Han-Jia Ye, Yu Liu, Hongsheng Li
cs.AI

Zusammenfassung

Durch die Nutzung groß angelegter Bild-Text-Datensätze und Fortschritte in Diffusionsmodellen haben textgesteuerte generative Modelle bemerkenswerte Fortschritte im Bereich der Bildgenerierung und -bearbeitung erzielt. Diese Studie untersucht das Potenzial, die textgesteuerte Fähigkeit auf die Generierung und Bearbeitung von langen Videos mit mehreren Textbedingungen auszuweiten. Aktuelle Methoden zur Videogenerierung und -bearbeitung, obwohl innovativ, beschränken sich oft auf extrem kurze Videos (typischerweise weniger als 24 Frames) und sind auf eine einzige Textbedingung beschränkt. Diese Einschränkungen begrenzen ihre Anwendungsmöglichkeiten erheblich, da reale Videos in der Regel aus mehreren Segmenten bestehen, die jeweils unterschiedliche semantische Informationen tragen. Um diese Herausforderung zu bewältigen, führen wir ein neuartiges Paradigma namens Gen-L-Video ein, das in der Lage ist, verfügbare Kurzvideo-Diffusionsmodelle für die Generierung und Bearbeitung von Videos mit Hunderten von Frames und verschiedenen semantischen Segmenten zu erweitern, ohne zusätzliches Training zu erfordern, und dabei die Inhaltskonsistenz bewahrt. Wir haben drei gängige textgesteuerte Methoden zur Videogenerierung und -bearbeitung implementiert und sie mit unserem vorgeschlagenen Paradigma erweitert, um längere Videos mit einer Vielzahl von semantischen Segmenten zu unterstützen. Unsere experimentellen Ergebnisse zeigen, dass unser Ansatz die generativen und bearbeitenden Fähigkeiten von Video-Diffusionsmodellen erheblich erweitert und neue Möglichkeiten für zukünftige Forschung und Anwendungen bietet. Der Code ist verfügbar unter https://github.com/G-U-N/Gen-L-Video.
English
Leveraging large-scale image-text datasets and advancements in diffusion models, text-driven generative models have made remarkable strides in the field of image generation and editing. This study explores the potential of extending the text-driven ability to the generation and editing of multi-text conditioned long videos. Current methodologies for video generation and editing, while innovative, are often confined to extremely short videos (typically less than 24 frames) and are limited to a single text condition. These constraints significantly limit their applications given that real-world videos usually consist of multiple segments, each bearing different semantic information. To address this challenge, we introduce a novel paradigm dubbed as Gen-L-Video, capable of extending off-the-shelf short video diffusion models for generating and editing videos comprising hundreds of frames with diverse semantic segments without introducing additional training, all while preserving content consistency. We have implemented three mainstream text-driven video generation and editing methodologies and extended them to accommodate longer videos imbued with a variety of semantic segments with our proposed paradigm. Our experimental outcomes reveal that our approach significantly broadens the generative and editing capabilities of video diffusion models, offering new possibilities for future research and applications. The code is available at https://github.com/G-U-N/Gen-L-Video.
PDF30December 15, 2024