VILA: Sobre o Pré-treinamento para Modelos de Linguagem Visual
VILA: On Pre-training for Visual Language Models
December 12, 2023
Autores: Ji Lin, Hongxu Yin, Wei Ping, Yao Lu, Pavlo Molchanov, Andrew Tao, Huizi Mao, Jan Kautz, Mohammad Shoeybi, Song Han
cs.AI
Resumo
Os modelos de linguagem visual (VLMs) avançaram rapidamente com o recente sucesso dos grandes modelos de linguagem (LLMs). Tem havido esforços crescentes no ajuste de instruções visuais para estender o LLM com entradas visuais, mas falta um estudo aprofundado do processo de pré-treinamento de linguagem visual, onde o modelo aprende a realizar modelagem conjunta em ambas as modalidades. Neste trabalho, examinamos as opções de design para o pré-treinamento de VLM ao aprimorar o LLM em direção ao VLM por meio de comparações controladas passo a passo. Apresentamos três principais descobertas: (1) congelar LLMs durante o pré-treinamento pode alcançar um desempenho zero-shot decente, mas falta capacidade de aprendizado em contexto, o que requer descongelar o LLM; (2) dados de pré-treinamento intercalados são benéficos, enquanto pares de imagem-texto sozinhos não são ideais; (3) reutilizar dados de instrução apenas em texto para dados de imagem-texto durante o ajuste fino de instruções não apenas corrige a degradação de tarefas apenas de texto, mas também aumenta a precisão das tarefas de VLM. Com uma receita aprimorada de pré-treinamento, construímos VILA, uma família de modelos de linguagem visual que consistentemente supera os modelos state-of-the-art, por exemplo, LLaVA-1.5, nos principais benchmarks sem recursos adicionais. O pré-treinamento multimodal também ajuda a revelar propriedades atraentes do VILA, incluindo raciocínio com múltiplas imagens, aprendizado em contexto aprimorado e melhor conhecimento do mundo.
English
Visual language models (VLMs) rapidly progressed with the recent success of
large language models. There have been growing efforts on visual instruction
tuning to extend the LLM with visual inputs, but lacks an in-depth study of the
visual language pre-training process, where the model learns to perform joint
modeling on both modalities. In this work, we examine the design options for
VLM pre-training by augmenting LLM towards VLM through step-by-step
controllable comparisons. We introduce three main findings: (1) freezing LLMs
during pre-training can achieve decent zero-shot performance, but lack
in-context learning capability, which requires unfreezing the LLM; (2)
interleaved pre-training data is beneficial whereas image-text pairs alone are
not optimal; (3) re-blending text-only instruction data to image-text data
during instruction fine-tuning not only remedies the degradation of text-only
tasks, but also boosts VLM task accuracy. With an enhanced pre-training recipe
we build VILA, a Visual Language model family that consistently outperforms the
state-of-the-art models, e.g., LLaVA-1.5, across main benchmarks without bells
and whistles. Multi-modal pre-training also helps unveil appealing properties
of VILA, including multi-image reasoning, enhanced in-context learning, and
better world knowledge.