ChatPaper.aiChatPaper

Gen-L-Video: Generación de Videos Largos a partir de Múltiples Textos mediante Co-Desenfoque Temporal

Gen-L-Video: Multi-Text to Long Video Generation via Temporal Co-Denoising

May 29, 2023
Autores: Fu-Yun Wang, Wenshuo Chen, Guanglu Song, Han-Jia Ye, Yu Liu, Hongsheng Li
cs.AI

Resumen

Aprovechando conjuntos de datos a gran escala de imágenes y texto, junto con avances en modelos de difusión, los modelos generativos impulsados por texto han logrado avances notables en el campo de la generación y edición de imágenes. Este estudio explora el potencial de extender la capacidad impulsada por texto a la generación y edición de videos largos condicionados por múltiples textos. Las metodologías actuales para la generación y edición de videos, aunque innovadoras, suelen limitarse a videos extremadamente cortos (generalmente menos de 24 fotogramas) y están restringidas a una única condición de texto. Estas limitaciones restringen significativamente sus aplicaciones, dado que los videos del mundo real suelen consistir en múltiples segmentos, cada uno con información semántica diferente. Para abordar este desafío, presentamos un nuevo paradigma denominado Gen-L-Video, capaz de extender modelos de difusión de videos cortos disponibles para generar y editar videos compuestos por cientos de fotogramas con segmentos semánticos diversos sin necesidad de entrenamiento adicional, manteniendo la consistencia del contenido. Hemos implementado tres metodologías principales de generación y edición de videos impulsadas por texto y las hemos extendido para adaptarlas a videos más largos con una variedad de segmentos semánticos utilizando nuestro paradigma propuesto. Los resultados experimentales revelan que nuestro enfoque amplía significativamente las capacidades generativas y de edición de los modelos de difusión de videos, ofreciendo nuevas posibilidades para futuras investigaciones y aplicaciones. El código está disponible en https://github.com/G-U-N/Gen-L-Video.
English
Leveraging large-scale image-text datasets and advancements in diffusion models, text-driven generative models have made remarkable strides in the field of image generation and editing. This study explores the potential of extending the text-driven ability to the generation and editing of multi-text conditioned long videos. Current methodologies for video generation and editing, while innovative, are often confined to extremely short videos (typically less than 24 frames) and are limited to a single text condition. These constraints significantly limit their applications given that real-world videos usually consist of multiple segments, each bearing different semantic information. To address this challenge, we introduce a novel paradigm dubbed as Gen-L-Video, capable of extending off-the-shelf short video diffusion models for generating and editing videos comprising hundreds of frames with diverse semantic segments without introducing additional training, all while preserving content consistency. We have implemented three mainstream text-driven video generation and editing methodologies and extended them to accommodate longer videos imbued with a variety of semantic segments with our proposed paradigm. Our experimental outcomes reveal that our approach significantly broadens the generative and editing capabilities of video diffusion models, offering new possibilities for future research and applications. The code is available at https://github.com/G-U-N/Gen-L-Video.
PDF30December 15, 2024