ChatPaper.aiChatPaper

VILA: О предобучении визуально-языковых моделей

VILA: On Pre-training for Visual Language Models

December 12, 2023
Авторы: Ji Lin, Hongxu Yin, Wei Ping, Yao Lu, Pavlo Molchanov, Andrew Tao, Huizi Mao, Jan Kautz, Mohammad Shoeybi, Song Han
cs.AI

Аннотация

Модели визуального языка (VLM) быстро развиваются благодаря недавним успехам крупных языковых моделей. Увеличиваются усилия по настройке визуальных инструкций для расширения возможностей LLM с использованием визуальных входных данных, однако отсутствует глубокое изучение процесса предварительного обучения визуального языка, где модель учится выполнять совместное моделирование для обеих модальностей. В данной работе мы исследуем варианты проектирования предварительного обучения VLM, поэтапно преобразуя LLM в VLM с помощью контролируемых сравнений. Мы представляем три основных вывода: (1) заморозка LLM во время предварительного обучения может обеспечить достойную производительность в условиях zero-shot, но ограничивает способность к обучению в контексте, что требует разморозки LLM; (2) чередующиеся данные предварительного обучения полезны, тогда как только пары изображение-текст не являются оптимальными; (3) повторное смешивание текстовых инструкций с данными изображение-текст во время тонкой настройки инструкций не только устраняет ухудшение производительности в текстовых задачах, но и повышает точность задач VLM. С улучшенным рецептом предварительного обучения мы создаем семейство моделей VILA (Visual Language), которое стабильно превосходит современные модели, например, LLaVA-1.5, на основных бенчмарках без дополнительных усложнений. Мультимодальное предварительное обучение также помогает раскрыть привлекательные свойства VILA, включая рассуждения с использованием нескольких изображений, улучшенное обучение в контексте и более глубокие знания о мире.
English
Visual language models (VLMs) rapidly progressed with the recent success of large language models. There have been growing efforts on visual instruction tuning to extend the LLM with visual inputs, but lacks an in-depth study of the visual language pre-training process, where the model learns to perform joint modeling on both modalities. In this work, we examine the design options for VLM pre-training by augmenting LLM towards VLM through step-by-step controllable comparisons. We introduce three main findings: (1) freezing LLMs during pre-training can achieve decent zero-shot performance, but lack in-context learning capability, which requires unfreezing the LLM; (2) interleaved pre-training data is beneficial whereas image-text pairs alone are not optimal; (3) re-blending text-only instruction data to image-text data during instruction fine-tuning not only remedies the degradation of text-only tasks, but also boosts VLM task accuracy. With an enhanced pre-training recipe we build VILA, a Visual Language model family that consistently outperforms the state-of-the-art models, e.g., LLaVA-1.5, across main benchmarks without bells and whistles. Multi-modal pre-training also helps unveil appealing properties of VILA, including multi-image reasoning, enhanced in-context learning, and better world knowledge.
PDF232December 15, 2024