ChatPaper.aiChatPaper

VILA: Sobre o Pré-treinamento para Modelos de Linguagem Visual

VILA: On Pre-training for Visual Language Models

December 12, 2023
Autores: Ji Lin, Hongxu Yin, Wei Ping, Yao Lu, Pavlo Molchanov, Andrew Tao, Huizi Mao, Jan Kautz, Mohammad Shoeybi, Song Han
cs.AI

Resumo

Os modelos de linguagem visual (VLMs) avançaram rapidamente com o recente sucesso dos grandes modelos de linguagem (LLMs). Tem havido esforços crescentes no ajuste de instruções visuais para estender o LLM com entradas visuais, mas falta um estudo aprofundado do processo de pré-treinamento de linguagem visual, onde o modelo aprende a realizar modelagem conjunta em ambas as modalidades. Neste trabalho, examinamos as opções de design para o pré-treinamento de VLM ao aprimorar o LLM em direção ao VLM por meio de comparações controladas passo a passo. Apresentamos três principais descobertas: (1) congelar LLMs durante o pré-treinamento pode alcançar um desempenho zero-shot decente, mas falta capacidade de aprendizado em contexto, o que requer descongelar o LLM; (2) dados de pré-treinamento intercalados são benéficos, enquanto pares de imagem-texto sozinhos não são ideais; (3) reutilizar dados de instrução apenas em texto para dados de imagem-texto durante o ajuste fino de instruções não apenas corrige a degradação de tarefas apenas de texto, mas também aumenta a precisão das tarefas de VLM. Com uma receita aprimorada de pré-treinamento, construímos VILA, uma família de modelos de linguagem visual que consistentemente supera os modelos state-of-the-art, por exemplo, LLaVA-1.5, nos principais benchmarks sem recursos adicionais. O pré-treinamento multimodal também ajuda a revelar propriedades atraentes do VILA, incluindo raciocínio com múltiplas imagens, aprendizado em contexto aprimorado e melhor conhecimento do mundo.
English
Visual language models (VLMs) rapidly progressed with the recent success of large language models. There have been growing efforts on visual instruction tuning to extend the LLM with visual inputs, but lacks an in-depth study of the visual language pre-training process, where the model learns to perform joint modeling on both modalities. In this work, we examine the design options for VLM pre-training by augmenting LLM towards VLM through step-by-step controllable comparisons. We introduce three main findings: (1) freezing LLMs during pre-training can achieve decent zero-shot performance, but lack in-context learning capability, which requires unfreezing the LLM; (2) interleaved pre-training data is beneficial whereas image-text pairs alone are not optimal; (3) re-blending text-only instruction data to image-text data during instruction fine-tuning not only remedies the degradation of text-only tasks, but also boosts VLM task accuracy. With an enhanced pre-training recipe we build VILA, a Visual Language model family that consistently outperforms the state-of-the-art models, e.g., LLaVA-1.5, across main benchmarks without bells and whistles. Multi-modal pre-training also helps unveil appealing properties of VILA, including multi-image reasoning, enhanced in-context learning, and better world knowledge.
PDF232December 15, 2024