ChatPaper.aiChatPaper

Animate-A-Story: Рассказывание историй с использованием генерации видео, усиленной поиском

Animate-A-Story: Storytelling with Retrieval-Augmented Video Generation

July 13, 2023
Авторы: Yingqing He, Menghan Xia, Haoxin Chen, Xiaodong Cun, Yuan Gong, Jinbo Xing, Yong Zhang, Xintao Wang, Chao Weng, Ying Shan, Qifeng Chen
cs.AI

Аннотация

Создание видеороликов для визуального повествования может быть утомительным и сложным процессом, который обычно требует либо съемки в реальном времени, либо рендеринга графической анимации. Чтобы обойти эти трудности, наша ключевая идея заключается в использовании обилия существующих видеоклипов и синтезе связного видеоролика для повествования путем настройки их внешнего вида. Мы достигаем этого, разработав фреймворк, состоящий из двух функциональных модулей: (i) Извлечение структуры движения, который предоставляет кандидаты на видео с желаемым контекстом сцены или движения, описанным текстовыми запросами, и (ii) Синтез видео на основе текста с учетом структуры, который генерирует видеоролики, соответствующие сюжету, под руководством структуры движения и текстовых подсказок. Для первого модуля мы используем готовую систему поиска видео и извлекаем глубину видео как структуру движения. Для второго модуля мы предлагаем управляемую модель генерации видео, которая обеспечивает гибкий контроль над структурой и персонажами. Видео синтезируются, следуя структурному руководству и инструкциям по внешнему виду. Чтобы обеспечить визуальную согласованность между клипами, мы предлагаем эффективный подход персонализации концепций, который позволяет задавать желаемые идентичности персонажей через текстовые подсказки. Многочисленные эксперименты демонстрируют, что наш подход обладает значительными преимуществами по сравнению с различными существующими базовыми методами.
English
Generating videos for visual storytelling can be a tedious and complex process that typically requires either live-action filming or graphics animation rendering. To bypass these challenges, our key idea is to utilize the abundance of existing video clips and synthesize a coherent storytelling video by customizing their appearances. We achieve this by developing a framework comprised of two functional modules: (i) Motion Structure Retrieval, which provides video candidates with desired scene or motion context described by query texts, and (ii) Structure-Guided Text-to-Video Synthesis, which generates plot-aligned videos under the guidance of motion structure and text prompts. For the first module, we leverage an off-the-shelf video retrieval system and extract video depths as motion structure. For the second module, we propose a controllable video generation model that offers flexible controls over structure and characters. The videos are synthesized by following the structural guidance and appearance instruction. To ensure visual consistency across clips, we propose an effective concept personalization approach, which allows the specification of the desired character identities through text prompts. Extensive experiments demonstrate that our approach exhibits significant advantages over various existing baselines.
PDF100December 15, 2024