ChatPaper.aiChatPaper

CogVLM: Experto Visual para Modelos de Lenguaje Preentrenados

CogVLM: Visual Expert for Pretrained Language Models

November 6, 2023
Autores: Weihan Wang, Qingsong Lv, Wenmeng Yu, Wenyi Hong, Ji Qi, Yan Wang, Junhui Ji, Zhuoyi Yang, Lei Zhao, Xixuan Song, Jiazheng Xu, Bin Xu, Juanzi Li, Yuxiao Dong, Ming Ding, Jie Tang
cs.AI

Resumen

Presentamos CogVLM, un potente modelo base de lenguaje visual de código abierto. A diferencia del popular método de alineación superficial que mapea características de imagen en el espacio de entrada del modelo de lenguaje, CogVLM cierra la brecha entre el modelo de lenguaje preentrenado congelado y el codificador de imágenes mediante un módulo experto visual entrenable en las capas de atención y FFN. Como resultado, CogVLM permite una fusión profunda de características de lenguaje visual sin sacrificar el rendimiento en tareas de PNL. CogVLM-17B logra un rendimiento de vanguardia en 10 benchmarks clásicos de modalidad cruzada, incluyendo NoCaps, Flicker30k captioning, RefCOCO, RefCOCO+, RefCOCOg, Visual7W, GQA, ScienceQA, VizWiz VQA y TDIUC, y se posiciona en segundo lugar en VQAv2, OKVQA, TextVQA, COCO captioning, etc., superando o igualando a PaLI-X 55B. Los códigos y puntos de control están disponibles en https://github.com/THUDM/CogVLM.
English
We introduce CogVLM, a powerful open-source visual language foundation model. Different from the popular shallow alignment method which maps image features into the input space of language model, CogVLM bridges the gap between the frozen pretrained language model and image encoder by a trainable visual expert module in the attention and FFN layers. As a result, CogVLM enables deep fusion of vision language features without sacrificing any performance on NLP tasks. CogVLM-17B achieves state-of-the-art performance on 10 classic cross-modal benchmarks, including NoCaps, Flicker30k captioning, RefCOCO, RefCOCO+, RefCOCOg, Visual7W, GQA, ScienceQA, VizWiz VQA and TDIUC, and ranks the 2nd on VQAv2, OKVQA, TextVQA, COCO captioning, etc., surpassing or matching PaLI-X 55B. Codes and checkpoints are available at https://github.com/THUDM/CogVLM.
PDF274December 15, 2024