VILA: Sul Pre-addestramento per Modelli Linguistico-Visuali
VILA: On Pre-training for Visual Language Models
December 12, 2023
Autori: Ji Lin, Hongxu Yin, Wei Ping, Yao Lu, Pavlo Molchanov, Andrew Tao, Huizi Mao, Jan Kautz, Mohammad Shoeybi, Song Han
cs.AI
Abstract
I modelli di linguaggio visivo (VLMs) hanno fatto rapidi progressi grazie ai recenti successi dei grandi modelli di linguaggio (LLMs). Sono stati compiuti crescenti sforzi per l'ottimizzazione tramite istruzioni visive al fine di estendere i LLM con input visivi, ma manca uno studio approfondito del processo di pre-addestramento del linguaggio visivo, in cui il modello impara a eseguire una modellazione congiunta su entrambe le modalità. In questo lavoro, esaminiamo le opzioni di progettazione per il pre-addestramento dei VLMs potenziando i LLM verso i VLMs attraverso confronti controllati passo-passo. Introduciamo tre principali risultati: (1) il congelamento dei LLMs durante il pre-addestramento può ottenere prestazioni zero-shot decenti, ma manca della capacità di apprendimento in contesto, che richiede lo scongelamento del LLM; (2) i dati di pre-addestramento intervallati sono vantaggiosi, mentre le sole coppie immagine-testo non sono ottimali; (3) il ri-miscelamento dei dati di istruzione solo testuali con i dati immagine-testo durante l'ottimizzazione tramite istruzioni non solo rimedia al degrado delle attività solo testuali, ma migliora anche l'accuratezza delle attività VLM. Con una ricetta di pre-addestramento potenziata, costruiamo VILA, una famiglia di modelli di linguaggio visivo che supera costantemente i modelli all'avanguardia, ad esempio LLaVA-1.5, nei principali benchmark senza fronzoli. Il pre-addestramento multimodale aiuta anche a svelare proprietà interessanti di VILA, tra cui il ragionamento su più immagini, un migliore apprendimento in contesto e una migliore conoscenza del mondo.
English
Visual language models (VLMs) rapidly progressed with the recent success of
large language models. There have been growing efforts on visual instruction
tuning to extend the LLM with visual inputs, but lacks an in-depth study of the
visual language pre-training process, where the model learns to perform joint
modeling on both modalities. In this work, we examine the design options for
VLM pre-training by augmenting LLM towards VLM through step-by-step
controllable comparisons. We introduce three main findings: (1) freezing LLMs
during pre-training can achieve decent zero-shot performance, but lack
in-context learning capability, which requires unfreezing the LLM; (2)
interleaved pre-training data is beneficial whereas image-text pairs alone are
not optimal; (3) re-blending text-only instruction data to image-text data
during instruction fine-tuning not only remedies the degradation of text-only
tasks, but also boosts VLM task accuracy. With an enhanced pre-training recipe
we build VILA, a Visual Language model family that consistently outperforms the
state-of-the-art models, e.g., LLaVA-1.5, across main benchmarks without bells
and whistles. Multi-modal pre-training also helps unveil appealing properties
of VILA, including multi-image reasoning, enhanced in-context learning, and
better world knowledge.