CogVLM: Esperto Visivo per Modelli Linguistici Pre-addestrati
CogVLM: Visual Expert for Pretrained Language Models
November 6, 2023
Autori: Weihan Wang, Qingsong Lv, Wenmeng Yu, Wenyi Hong, Ji Qi, Yan Wang, Junhui Ji, Zhuoyi Yang, Lei Zhao, Xixuan Song, Jiazheng Xu, Bin Xu, Juanzi Li, Yuxiao Dong, Ming Ding, Jie Tang
cs.AI
Abstract
Presentiamo CogVLM, un potente modello di base open-source per il linguaggio visivo.
A differenza del popolare metodo di allineamento superficiale che mappa le caratteristiche dell'immagine nello spazio di input del modello linguistico, CogVLM colma il divario tra il modello linguistico pre-addestrato congelato e l'encoder di immagini attraverso un modulo esperto visivo addestrabile negli strati di attenzione e FFN. Di conseguenza, CogVLM consente una fusione profonda delle caratteristiche visive e linguistiche senza sacrificare le prestazioni nelle attività NLP.
CogVLM-17B raggiunge prestazioni all'avanguardia su 10 benchmark cross-modali classici, tra cui NoCaps, Flicker30k captioning, RefCOCO, RefCOCO+, RefCOCOg, Visual7W, GQA, ScienceQA, VizWiz VQA e TDIUC, e si posiziona al 2° posto su VQAv2, OKVQA, TextVQA, COCO captioning, ecc., superando o eguagliando PaLI-X 55B. I codici e i checkpoint sono disponibili all'indirizzo https://github.com/THUDM/CogVLM.
English
We introduce CogVLM, a powerful open-source visual language foundation model.
Different from the popular shallow alignment method which maps image features
into the input space of language model, CogVLM bridges the gap between the
frozen pretrained language model and image encoder by a trainable visual expert
module in the attention and FFN layers. As a result, CogVLM enables deep fusion
of vision language features without sacrificing any performance on NLP tasks.
CogVLM-17B achieves state-of-the-art performance on 10 classic cross-modal
benchmarks, including NoCaps, Flicker30k captioning, RefCOCO, RefCOCO+,
RefCOCOg, Visual7W, GQA, ScienceQA, VizWiz VQA and TDIUC, and ranks the 2nd on
VQAv2, OKVQA, TextVQA, COCO captioning, etc., surpassing or matching PaLI-X
55B. Codes and checkpoints are available at https://github.com/THUDM/CogVLM.