Video-LaVIT : Pré-entraînement unifié vidéo-langage avec tokenisation visuelle-motionnelle découplée
Video-LaVIT: Unified Video-Language Pre-training with Decoupled Visual-Motional Tokenization
February 5, 2024
Auteurs: Yang Jin, Zhicheng Sun, Kun Xu, Kun Xu, Liwei Chen, Hao Jiang, Quzhe Huang, Chengru Song, Yuliang Liu, Di Zhang, Yang Song, Kun Gai, Yadong Mu
cs.AI
Résumé
À la lumière des avancées récentes dans les modèles de langage multimodal de grande envergure (LLMs), une attention croissante est portée sur leur extension des données image-texte à des vidéos du monde réel plus informatives. Par rapport aux images statiques, la vidéo présente des défis uniques pour un pré-entraînement efficace à grande échelle en raison de la modélisation de ses dynamiques spatio-temporelles. Dans cet article, nous abordons ces limitations dans le pré-entraînement vidéo-langage avec une décomposition vidéo efficace qui représente chaque vidéo sous forme d'images clés et de mouvements temporels. Ces éléments sont ensuite adaptés à un LLM en utilisant des tokeniseurs bien conçus qui discrétisent les informations visuelles et temporelles en quelques tokens, permettant ainsi un pré-entraînement génératif unifié des vidéos, images et textes. Lors de l'inférence, les tokens générés par le LLM sont soigneusement reconvertis dans l'espace pixel continu original pour créer divers contenus vidéo. Notre cadre proposé est à la fois capable de comprendre et de générer des contenus image et vidéo, comme en témoigne sa performance compétitive sur 13 benchmarks multimodaux dans la compréhension et la génération d'images et de vidéos. Notre code et nos modèles seront disponibles à l'adresse https://video-lavit.github.io.
English
In light of recent advances in multimodal Large Language Models (LLMs), there
is increasing attention to scaling them from image-text data to more
informative real-world videos. Compared to static images, video poses unique
challenges for effective large-scale pre-training due to the modeling of its
spatiotemporal dynamics. In this paper, we address such limitations in
video-language pre-training with an efficient video decomposition that
represents each video as keyframes and temporal motions. These are then adapted
to an LLM using well-designed tokenizers that discretize visual and temporal
information as a few tokens, thus enabling unified generative pre-training of
videos, images, and text. At inference, the generated tokens from the LLM are
carefully recovered to the original continuous pixel space to create various
video content. Our proposed framework is both capable of comprehending and
generating image and video content, as demonstrated by its competitive
performance across 13 multimodal benchmarks in image and video understanding
and generation. Our code and models will be available at
https://video-lavit.github.io.