CogVLM : Expert visuel pour les modèles de langage pré-entraînés
CogVLM: Visual Expert for Pretrained Language Models
November 6, 2023
Auteurs: Weihan Wang, Qingsong Lv, Wenmeng Yu, Wenyi Hong, Ji Qi, Yan Wang, Junhui Ji, Zhuoyi Yang, Lei Zhao, Xixuan Song, Jiazheng Xu, Bin Xu, Juanzi Li, Yuxiao Dong, Ming Ding, Jie Tang
cs.AI
Résumé
Nous présentons CogVLM, un puissant modèle de base visuel et linguistique open-source.
Contrairement à la méthode d'alignement superficiel populaire qui projette les caractéristiques visuelles dans l'espace d'entrée du modèle linguistique, CogVLM comble le fossé entre le modèle linguistique pré-entraîné figé et l'encodeur d'images grâce à un module expert visuel entraînable dans les couches d'attention et FFN. En conséquence, CogVLM permet une fusion profonde des caractéristiques visuelles et linguistiques sans sacrifier les performances sur les tâches de traitement du langage naturel.
CogVLM-17B atteint des performances de pointe sur 10 benchmarks classiques intermodaux, notamment NoCaps, Flicker30k captioning, RefCOCO, RefCOCO+, RefCOCOg, Visual7W, GQA, ScienceQA, VizWiz VQA et TDIUC, et se classe 2ème sur VQAv2, OKVQA, TextVQA, COCO captioning, etc., surpassant ou égalant PaLI-X 55B. Les codes et les points de contrôle sont disponibles à l'adresse https://github.com/THUDM/CogVLM.
English
We introduce CogVLM, a powerful open-source visual language foundation model.
Different from the popular shallow alignment method which maps image features
into the input space of language model, CogVLM bridges the gap between the
frozen pretrained language model and image encoder by a trainable visual expert
module in the attention and FFN layers. As a result, CogVLM enables deep fusion
of vision language features without sacrificing any performance on NLP tasks.
CogVLM-17B achieves state-of-the-art performance on 10 classic cross-modal
benchmarks, including NoCaps, Flicker30k captioning, RefCOCO, RefCOCO+,
RefCOCOg, Visual7W, GQA, ScienceQA, VizWiz VQA and TDIUC, and ranks the 2nd on
VQAv2, OKVQA, TextVQA, COCO captioning, etc., surpassing or matching PaLI-X
55B. Codes and checkpoints are available at https://github.com/THUDM/CogVLM.