ChatPaper.aiChatPaper

CogVLM : Expert visuel pour les modèles de langage pré-entraînés

CogVLM: Visual Expert for Pretrained Language Models

November 6, 2023
Auteurs: Weihan Wang, Qingsong Lv, Wenmeng Yu, Wenyi Hong, Ji Qi, Yan Wang, Junhui Ji, Zhuoyi Yang, Lei Zhao, Xixuan Song, Jiazheng Xu, Bin Xu, Juanzi Li, Yuxiao Dong, Ming Ding, Jie Tang
cs.AI

Résumé

Nous présentons CogVLM, un puissant modèle de base visuel et linguistique open-source. Contrairement à la méthode d'alignement superficiel populaire qui projette les caractéristiques visuelles dans l'espace d'entrée du modèle linguistique, CogVLM comble le fossé entre le modèle linguistique pré-entraîné figé et l'encodeur d'images grâce à un module expert visuel entraînable dans les couches d'attention et FFN. En conséquence, CogVLM permet une fusion profonde des caractéristiques visuelles et linguistiques sans sacrifier les performances sur les tâches de traitement du langage naturel. CogVLM-17B atteint des performances de pointe sur 10 benchmarks classiques intermodaux, notamment NoCaps, Flicker30k captioning, RefCOCO, RefCOCO+, RefCOCOg, Visual7W, GQA, ScienceQA, VizWiz VQA et TDIUC, et se classe 2ème sur VQAv2, OKVQA, TextVQA, COCO captioning, etc., surpassant ou égalant PaLI-X 55B. Les codes et les points de contrôle sont disponibles à l'adresse https://github.com/THUDM/CogVLM.
English
We introduce CogVLM, a powerful open-source visual language foundation model. Different from the popular shallow alignment method which maps image features into the input space of language model, CogVLM bridges the gap between the frozen pretrained language model and image encoder by a trainable visual expert module in the attention and FFN layers. As a result, CogVLM enables deep fusion of vision language features without sacrificing any performance on NLP tasks. CogVLM-17B achieves state-of-the-art performance on 10 classic cross-modal benchmarks, including NoCaps, Flicker30k captioning, RefCOCO, RefCOCO+, RefCOCOg, Visual7W, GQA, ScienceQA, VizWiz VQA and TDIUC, and ranks the 2nd on VQAv2, OKVQA, TextVQA, COCO captioning, etc., surpassing or matching PaLI-X 55B. Codes and checkpoints are available at https://github.com/THUDM/CogVLM.
PDF274December 15, 2024