ChatPaper.aiChatPaper

Animate-A-Story: Storyvertellen met Retrieval-Augmented Videogeneratie

Animate-A-Story: Storytelling with Retrieval-Augmented Video Generation

July 13, 2023
Auteurs: Yingqing He, Menghan Xia, Haoxin Chen, Xiaodong Cun, Yuan Gong, Jinbo Xing, Yong Zhang, Xintao Wang, Chao Weng, Ying Shan, Qifeng Chen
cs.AI

Samenvatting

Het genereren van video's voor visuele verhalenvertelling kan een tijdrovend en complex proces zijn dat doorgaans live-action opnames of grafische animatierendering vereist. Om deze uitdagingen te omzeilen, is ons belangrijkste idee om gebruik te maken van de overvloed aan bestaande videofragmenten en een samenhangende verhalende video te synthetiseren door hun uiterlijk aan te passen. We bereiken dit door een raamwerk te ontwikkelen dat bestaat uit twee functionele modules: (i) Motion Structure Retrieval, dat videokandidaten biedt met de gewenste scène- of bewegingscontext zoals beschreven door zoekteksten, en (ii) Structure-Guided Text-to-Video Synthesis, dat plot-afgestemde video's genereert onder begeleiding van bewegingsstructuur en tekstprompts. Voor de eerste module maken we gebruik van een bestaand videoretrievalsysteem en extraheren we videodieptes als bewegingsstructuur. Voor de tweede module stellen we een controleerbaar videogeneratiemodel voor dat flexibele controle biedt over structuur en personages. De video's worden gesynthetiseerd door de structurele begeleiding en uiterlijke instructies te volgen. Om visuele consistentie tussen fragmenten te waarborgen, stellen we een effectieve conceptpersonaliseringsaanpak voor, die de specificatie van gewenste personage-identiteiten via tekstprompts mogelijk maakt. Uitgebreide experimenten tonen aan dat onze aanzienlijke voordelen vertoont ten opzichte van verschillende bestaande baseline-methoden.
English
Generating videos for visual storytelling can be a tedious and complex process that typically requires either live-action filming or graphics animation rendering. To bypass these challenges, our key idea is to utilize the abundance of existing video clips and synthesize a coherent storytelling video by customizing their appearances. We achieve this by developing a framework comprised of two functional modules: (i) Motion Structure Retrieval, which provides video candidates with desired scene or motion context described by query texts, and (ii) Structure-Guided Text-to-Video Synthesis, which generates plot-aligned videos under the guidance of motion structure and text prompts. For the first module, we leverage an off-the-shelf video retrieval system and extract video depths as motion structure. For the second module, we propose a controllable video generation model that offers flexible controls over structure and characters. The videos are synthesized by following the structural guidance and appearance instruction. To ensure visual consistency across clips, we propose an effective concept personalization approach, which allows the specification of the desired character identities through text prompts. Extensive experiments demonstrate that our approach exhibits significant advantages over various existing baselines.
PDF100December 15, 2024