ChatPaper.aiChatPaper

Gen-L-Video: Multi-Tekst naar Lange Videogeneratie via Temporele Co-Ontruiming

Gen-L-Video: Multi-Text to Long Video Generation via Temporal Co-Denoising

May 29, 2023
Auteurs: Fu-Yun Wang, Wenshuo Chen, Guanglu Song, Han-Jia Ye, Yu Liu, Hongsheng Li
cs.AI

Samenvatting

Door gebruik te maken van grootschalige beeld-tekst datasets en vooruitgang in diffusiemodellen, hebben tekstgestuurde generatieve modellen opmerkelijke vooruitgang geboekt op het gebied van beeldgeneratie en -bewerking. Deze studie onderzoekt de mogelijkheid om de tekstgestuurde mogelijkheid uit te breiden naar de generatie en bewerking van lange video's met meerdere tekstcondities. Huidige methodologieën voor videogeneratie en -bewerking, hoewel innovatief, zijn vaak beperkt tot extreem korte video's (meestal minder dan 24 frames) en zijn beperkt tot een enkele tekstconditie. Deze beperkingen beperken hun toepassingen aanzienlijk, aangezien real-world video's meestal bestaan uit meerdere segmenten, elk met verschillende semantische informatie. Om deze uitdaging aan te pakken, introduceren we een nieuw paradigma genaamd Gen-L-Video, dat in staat is om bestaande korte videodiffusiemodellen uit te breiden voor het genereren en bewerken van video's bestaande uit honderden frames met diverse semantische segmenten zonder aanvullende training, terwijl de inhoudsconsistentie behouden blijft. We hebben drie gangbare tekstgestuurde videogeneratie- en bewerkingsmethodologieën geïmplementeerd en uitgebreid om langere video's met een verscheidenheid aan semantische segmenten te accommoderen met ons voorgestelde paradigma. Onze experimentele resultaten tonen aan dat onze aanpak de generatieve en bewerkingsmogelijkheden van videodiffusiemodellen aanzienlijk verbreedt, wat nieuwe mogelijkheden biedt voor toekomstig onderzoek en toepassingen. De code is beschikbaar op https://github.com/G-U-N/Gen-L-Video.
English
Leveraging large-scale image-text datasets and advancements in diffusion models, text-driven generative models have made remarkable strides in the field of image generation and editing. This study explores the potential of extending the text-driven ability to the generation and editing of multi-text conditioned long videos. Current methodologies for video generation and editing, while innovative, are often confined to extremely short videos (typically less than 24 frames) and are limited to a single text condition. These constraints significantly limit their applications given that real-world videos usually consist of multiple segments, each bearing different semantic information. To address this challenge, we introduce a novel paradigm dubbed as Gen-L-Video, capable of extending off-the-shelf short video diffusion models for generating and editing videos comprising hundreds of frames with diverse semantic segments without introducing additional training, all while preserving content consistency. We have implemented three mainstream text-driven video generation and editing methodologies and extended them to accommodate longer videos imbued with a variety of semantic segments with our proposed paradigm. Our experimental outcomes reveal that our approach significantly broadens the generative and editing capabilities of video diffusion models, offering new possibilities for future research and applications. The code is available at https://github.com/G-U-N/Gen-L-Video.
PDF30February 8, 2026