ChatPaper.aiChatPaper

Мини-Гемини: Исследование потенциала мульти-модальных моделей видео-языка

Mini-Gemini: Mining the Potential of Multi-modality Vision Language Models

March 27, 2024
Авторы: Yanwei Li, Yuechen Zhang, Chengyao Wang, Zhisheng Zhong, Yixin Chen, Ruihang Chu, Shaoteng Liu, Jiaya Jia
cs.AI

Аннотация

В данной работе мы представляем Mini-Gemini - простую и эффективную платформу, улучшающую мульти-модальные модели видео-языка (VLMs). Несмотря на прогресс в области VLMs, облегчающий базовый визуальный диалог и рассуждения, по-прежнему существует разрыв в производительности по сравнению с продвинутыми моделями, такими как GPT-4 и Gemini. Мы пытаемся сократить этот разрыв, максимально использовав потенциал VLMs для улучшения производительности и создания рабочего процесса "любой-к-любому" с трех аспектов: высокоразрешенные визуальные токены, высококачественные данные и генерация под руководством VLM. Для улучшения визуальных токенов мы предлагаем использовать дополнительный визуальный кодер для улучшения высокоразрешенности без увеличения количества визуальных токенов. Мы также создаем высококачественный набор данных, способствующий точному пониманию изображений и генерации на основе рассуждений, расширяя операционный диапазон текущих VLMs. В целом Mini-Gemini дополнительно раскрывает потенциал VLMs и усиливает текущие структуры с пониманием изображений, рассуждениями и генерацией одновременно. Mini-Gemini поддерживает ряд плотных и MoE Large Language Models (LLMs) от 2B до 34B. Он продемонстрирован достижение ведущей производительности в нескольких нулевых тестах и даже превосходит разработанные частные модели. Код и модели доступны по ссылке https://github.com/dvlab-research/MiniGemini.
English
In this work, we introduce Mini-Gemini, a simple and effective framework enhancing multi-modality Vision Language Models (VLMs). Despite the advancements in VLMs facilitating basic visual dialog and reasoning, a performance gap persists compared to advanced models like GPT-4 and Gemini. We try to narrow the gap by mining the potential of VLMs for better performance and any-to-any workflow from three aspects, i.e., high-resolution visual tokens, high-quality data, and VLM-guided generation. To enhance visual tokens, we propose to utilize an additional visual encoder for high-resolution refinement without increasing the visual token count. We further construct a high-quality dataset that promotes precise image comprehension and reasoning-based generation, expanding the operational scope of current VLMs. In general, Mini-Gemini further mines the potential of VLMs and empowers current frameworks with image understanding, reasoning, and generation simultaneously. Mini-Gemini supports a series of dense and MoE Large Language Models (LLMs) from 2B to 34B. It is demonstrated to achieve leading performance in several zero-shot benchmarks and even surpasses the developed private models. Code and models are available at https://github.com/dvlab-research/MiniGemini.

Summary

AI-Generated Summary

PDF484December 15, 2024