ChatPaper.aiChatPaper

На сколько близки мы к GPT-4V? Сокращение разрыва до коммерческих мультимодальных моделей с открытыми наборами данных.

How Far Are We to GPT-4V? Closing the Gap to Commercial Multimodal Models with Open-Source Suites

April 25, 2024
Авторы: Zhe Chen, Weiyun Wang, Hao Tian, Shenglong Ye, Zhangwei Gao, Erfei Cui, Wenwen Tong, Kongzhi Hu, Jiapeng Luo, Zheng Ma, Ji Ma, Jiaqi Wang, Xiaoyi Dong, Hang Yan, Hewei Guo, Conghui He, Zhenjiang Jin, Chao Xu, Bin Wang, Xingjian Wei, Wei Li, Wenjian Zhang, Lewei Lu, Xizhou Zhu, Tong Lu, Dahua Lin, Yu Qiao
cs.AI

Аннотация

В данном отчете мы представляем InternVL 1.5, открытую мультимодальную крупномасштабную языковую модель (MLLM), которая позволяет сократить разрыв в возможностях между открытыми и коммерческими проприетарными моделями в мультимодальном понимании. Мы внедрили три простых улучшения: (1) Сильный Визионный Кодировщик: мы исследовали стратегию непрерывного обучения для крупномасштабной модели визуального фундамента - InternViT-6B, улучшив ее возможности визуального понимания и сделав возможным ее передачу и повторное использование в различных LLM. (2) Динамическое Высокое Разрешение: мы делим изображения на плитки от 1 до 40 размером 448х448 пикселей в зависимости от соотношения сторон и разрешения входных изображений, что поддерживает ввод с разрешением до 4K. (3) Высококачественный Двуязычный Набор Данных: мы тщательно собрали высококачественный двуязычный набор данных, охватывающий общие сцены, документы, и аннотировали их вопросами и ответами на английском и китайском языках, значительно улучшая производительность в задачах OCR и китайского языка. Мы оценили InternVL 1.5 через ряд бенчмарков и сравнительных исследований. По сравнению с открытыми и проприетарными моделями, InternVL 1.5 показывает конкурентоспособную производительность, достигая передовых результатов в 8 из 18 бенчмарков. Код доступен по ссылке https://github.com/OpenGVLab/InternVL.
English
In this report, we introduce InternVL 1.5, an open-source multimodal large language model (MLLM) to bridge the capability gap between open-source and proprietary commercial models in multimodal understanding. We introduce three simple improvements: (1) Strong Vision Encoder: we explored a continuous learning strategy for the large-scale vision foundation model -- InternViT-6B, boosting its visual understanding capabilities, and making it can be transferred and reused in different LLMs. (2) Dynamic High-Resolution: we divide images into tiles ranging from 1 to 40 of 448times448 pixels according to the aspect ratio and resolution of the input images, which supports up to 4K resolution input. (3) High-Quality Bilingual Dataset: we carefully collected a high-quality bilingual dataset that covers common scenes, document images, and annotated them with English and Chinese question-answer pairs, significantly enhancing performance in OCR- and Chinese-related tasks. We evaluate InternVL 1.5 through a series of benchmarks and comparative studies. Compared to both open-source and proprietary models, InternVL 1.5 shows competitive performance, achieving state-of-the-art results in 8 of 18 benchmarks. Code has been released at https://github.com/OpenGVLab/InternVL.

Summary

AI-Generated Summary

PDF585December 15, 2024