ChatPaper.aiChatPaper

VideoPoet: Een Groot Taalmodel voor Zero-Shot Videogeneratie

VideoPoet: A Large Language Model for Zero-Shot Video Generation

December 21, 2023
Auteurs: Dan Kondratyuk, Lijun Yu, Xiuye Gu, José Lezama, Jonathan Huang, Rachel Hornung, Hartwig Adam, Hassan Akbari, Yair Alon, Vighnesh Birodkar, Yong Cheng, Ming-Chang Chiu, Josh Dillon, Irfan Essa, Agrim Gupta, Meera Hahn, Anja Hauth, David Hendon, Alonso Martinez, David Minnen, David Ross, Grant Schindler, Mikhail Sirotenko, Kihyuk Sohn, Krishna Somandepalli, Huisheng Wang, Jimmy Yan, Ming-Hsuan Yang, Xuan Yang, Bryan Seybold, Lu Jiang
cs.AI

Samenvatting

We presenteren VideoPoet, een taalmodel dat in staat is om hoogwaardige video's, inclusief bijpassende audio, te synthetiseren vanuit een grote verscheidenheid aan conditioneringssignalen. VideoPoet maakt gebruik van een decoder-only transformer-architectuur die multimodale invoer verwerkt — waaronder afbeeldingen, video's, tekst en audio. Het trainingsprotocol volgt dat van Large Language Models (LLMs) en bestaat uit twee fasen: voorafgaande training en taakspecifieke aanpassing. Tijdens de voorafgaande training integreert VideoPoet een mix van multimodale generatieve doelstellingen binnen een autoregressief Transformer-raamwerk. Het vooraf getrainde LLM dient als basis die kan worden aangepast voor een reeks videogeneratietaken. We presenteren empirische resultaten die de state-of-the-art mogelijkheden van het model aantonen in zero-shot videogeneratie, met specifieke nadruk op de vaardigheid van VideoPoet om hoogwaardige bewegingen te genereren. Projectpagina: http://sites.research.google/videopoet/
English
We present VideoPoet, a language model capable of synthesizing high-quality video, with matching audio, from a large variety of conditioning signals. VideoPoet employs a decoder-only transformer architecture that processes multimodal inputs -- including images, videos, text, and audio. The training protocol follows that of Large Language Models (LLMs), consisting of two stages: pretraining and task-specific adaptation. During pretraining, VideoPoet incorporates a mixture of multimodal generative objectives within an autoregressive Transformer framework. The pretrained LLM serves as a foundation that can be adapted for a range of video generation tasks. We present empirical results demonstrating the model's state-of-the-art capabilities in zero-shot video generation, specifically highlighting VideoPoet's ability to generate high-fidelity motions. Project page: http://sites.research.google/videopoet/
PDF472December 15, 2024