ChatPaper.aiChatPaper

Gen-L-Video: 다중 텍스트를 통한 장편 비디오 생성 - 시간적 공동 디노이징 기반

Gen-L-Video: Multi-Text to Long Video Generation via Temporal Co-Denoising

May 29, 2023
저자: Fu-Yun Wang, Wenshuo Chen, Guanglu Song, Han-Jia Ye, Yu Liu, Hongsheng Li
cs.AI

초록

대규모 이미지-텍스트 데이터셋과 확산 모델의 발전을 활용하여, 텍스트 기반 생성 모델은 이미지 생성 및 편집 분야에서 놀라운 진전을 이루어냈습니다. 본 연구는 이러한 텍스트 기반 능력을 다중 텍스트 조건 하의 긴 비디오 생성 및 편집으로 확장할 가능성을 탐구합니다. 현재의 비디오 생성 및 편집 방법론은 혁신적이지만, 매우 짧은 비디오(일반적으로 24프레임 미만)에 국한되고 단일 텍스트 조건에 제한되는 경우가 많습니다. 이러한 제약은 실제 비디오가 일반적으로 다양한 의미 정보를 담은 여러 세그먼트로 구성된다는 점을 고려할 때 그 응용 가능성을 크게 제한합니다. 이러한 문제를 해결하기 위해, 우리는 Gen-L-Video라는 새로운 패러다임을 제안합니다. 이 패러다임은 추가적인 학습 없이도 수백 프레임의 다양한 의미 세그먼트를 포함한 비디오를 생성 및 편집할 수 있도록 기존의 짧은 비디오 확산 모델을 확장할 수 있으며, 내용의 일관성을 유지합니다. 우리는 세 가지 주요 텍스트 기반 비디오 생성 및 편집 방법론을 구현하고, 이를 우리가 제안한 패러다임을 통해 다양한 의미 세그먼트를 포함한 더 긴 비디오에 적용할 수 있도록 확장했습니다. 실험 결과는 우리의 접근 방식이 비디오 확산 모델의 생성 및 편집 능력을 크게 확장하며, 향후 연구와 응용에 새로운 가능성을 제공함을 보여줍니다. 코드는 https://github.com/G-U-N/Gen-L-Video에서 확인할 수 있습니다.
English
Leveraging large-scale image-text datasets and advancements in diffusion models, text-driven generative models have made remarkable strides in the field of image generation and editing. This study explores the potential of extending the text-driven ability to the generation and editing of multi-text conditioned long videos. Current methodologies for video generation and editing, while innovative, are often confined to extremely short videos (typically less than 24 frames) and are limited to a single text condition. These constraints significantly limit their applications given that real-world videos usually consist of multiple segments, each bearing different semantic information. To address this challenge, we introduce a novel paradigm dubbed as Gen-L-Video, capable of extending off-the-shelf short video diffusion models for generating and editing videos comprising hundreds of frames with diverse semantic segments without introducing additional training, all while preserving content consistency. We have implemented three mainstream text-driven video generation and editing methodologies and extended them to accommodate longer videos imbued with a variety of semantic segments with our proposed paradigm. Our experimental outcomes reveal that our approach significantly broadens the generative and editing capabilities of video diffusion models, offering new possibilities for future research and applications. The code is available at https://github.com/G-U-N/Gen-L-Video.
PDF30December 15, 2024