ChatPaper.aiChatPaper

EVEv2: Miglioramento delle basi per i modelli di visione-linguaggio senza codificatore

EVEv2: Improved Baselines for Encoder-Free Vision-Language Models

February 10, 2025
Autori: Haiwen Diao, Xiaotong Li, Yufeng Cui, Yueze Wang, Haoge Deng, Ting Pan, Wenxuan Wang, Huchuan Lu, Xinlong Wang
cs.AI

Abstract

I modelli di visione-linguaggio senza codificatore esistenti (VLM) stanno rapidamente riducendo il divario di prestazioni con i loro omologhi basati su codificatori, evidenziando il potenziale promettente per sistemi multimodali unificati con semplicità strutturale e distribuzione efficiente. Chiariamo sistematicamente il divario di prestazioni tra i VLM che utilizzano codificatori di visione pre-addestrati, tokenizzatori discreti e strati visivi minimalisti da zero, scavando a fondo le caratteristiche poco esaminate dei VLM senza codificatore. Sviluppiamo strategie efficienti per i VLM senza codificatore che competono con quelli basati su codificatori mainstream. Dopo un'approfondita indagine, lanciamo EVEv2.0, una nuova e migliorata famiglia di VLM senza codificatore. Dimostriamo che: (i) Decomporre correttamente e associare gerarchicamente visione e linguaggio all'interno di un modello unificato riduce l'interferenza tra le modalità. (ii) Una strategia di addestramento ben progettata consente un'ottimizzazione efficace per i VLM senza codificatore. Attraverso una valutazione estensiva, il nostro EVEv2.0 rappresenta uno studio approfondito per lo sviluppo di un'architettura solo decoder attraverso le modalità, dimostrando una maggiore efficienza dei dati e una forte capacità di ragionamento visivo. Il codice è disponibile pubblicamente su: https://github.com/baaivision/EVE.
English
Existing encoder-free vision-language models (VLMs) are rapidly narrowing the performance gap with their encoder-based counterparts, highlighting the promising potential for unified multimodal systems with structural simplicity and efficient deployment. We systematically clarify the performance gap between VLMs using pre-trained vision encoders, discrete tokenizers, and minimalist visual layers from scratch, deeply excavating the under-examined characteristics of encoder-free VLMs. We develop efficient strategies for encoder-free VLMs that rival mainstream encoder-based ones. After an in-depth investigation, we launch EVEv2.0, a new and improved family of encoder-free VLMs. We show that: (i) Properly decomposing and hierarchically associating vision and language within a unified model reduces interference between modalities. (ii) A well-designed training strategy enables effective optimization for encoder-free VLMs. Through extensive evaluation, our EVEv2.0 represents a thorough study for developing a decoder-only architecture across modalities, demonstrating superior data efficiency and strong vision-reasoning capability. Code is publicly available at: https://github.com/baaivision/EVE.

Summary

AI-Generated Summary

PDF122February 11, 2025