Animate-A-Story: Narrazione con Generazione di Video Aumentata da Recupero
Animate-A-Story: Storytelling with Retrieval-Augmented Video Generation
July 13, 2023
Autori: Yingqing He, Menghan Xia, Haoxin Chen, Xiaodong Cun, Yuan Gong, Jinbo Xing, Yong Zhang, Xintao Wang, Chao Weng, Ying Shan, Qifeng Chen
cs.AI
Abstract
La generazione di video per lo storytelling visivo può essere un processo tedioso e complesso che tipicamente richiede riprese live-action o rendering di animazioni grafiche. Per superare queste sfide, la nostra idea chiave è sfruttare l'abbondanza di clip video esistenti e sintetizzare un video narrativo coerente personalizzandone gli aspetti visivi. Raggiungiamo questo obiettivo sviluppando un framework composto da due moduli funzionali: (i) Recupero della Struttura del Movimento, che fornisce candidati video con il contesto di scena o movimento desiderato descritto da testi di query, e (ii) Sintesi Video da Testo Guidata dalla Struttura, che genera video allineati alla trama sotto la guida della struttura del movimento e dei prompt testuali. Per il primo modulo, utilizziamo un sistema di recupero video preesistente ed estraiamo le profondità video come struttura del movimento. Per il secondo modulo, proponiamo un modello di generazione video controllabile che offre un controllo flessibile sulla struttura e sui personaggi. I video vengono sintetizzati seguendo la guida strutturale e le istruzioni sull'aspetto. Per garantire la coerenza visiva tra le clip, proponiamo un approccio efficace di personalizzazione del concetto, che consente di specificare le identità dei personaggi desiderati attraverso prompt testuali. Esperimenti estensivi dimostrano che il nostro approccio presenta vantaggi significativi rispetto a varie baseline esistenti.
English
Generating videos for visual storytelling can be a tedious and complex
process that typically requires either live-action filming or graphics
animation rendering. To bypass these challenges, our key idea is to utilize the
abundance of existing video clips and synthesize a coherent storytelling video
by customizing their appearances. We achieve this by developing a framework
comprised of two functional modules: (i) Motion Structure Retrieval, which
provides video candidates with desired scene or motion context described by
query texts, and (ii) Structure-Guided Text-to-Video Synthesis, which generates
plot-aligned videos under the guidance of motion structure and text prompts.
For the first module, we leverage an off-the-shelf video retrieval system and
extract video depths as motion structure. For the second module, we propose a
controllable video generation model that offers flexible controls over
structure and characters. The videos are synthesized by following the
structural guidance and appearance instruction. To ensure visual consistency
across clips, we propose an effective concept personalization approach, which
allows the specification of the desired character identities through text
prompts. Extensive experiments demonstrate that our approach exhibits
significant advantages over various existing baselines.