ChatPaper.aiChatPaper

Lasst ViT sprechen: Generative Sprach-Bild-Vorverarbeitung

Let ViT Speak: Generative Language-Image Pre-training

May 1, 2026
Autoren: Yan Fang, Mengcheng Lan, Zilong Huang, Weixian Lei, Yunqing Zhao, Yujie Zhong, Yingchen Yu, Qi She, Yao Zhao, Yunchao Wei
cs.AI

Zusammenfassung

In diesem Beitrag stellen wir Generative Language-Image Pre-training (GenLIP) vor, ein minimalistisches generatives Vor-Trainings-Framework für Vision Transformer (ViTs), das für multimodale Large Language Models (MLLMs) konzipiert ist. Um Vision-Encoder besser mit dem autoregressiven Charakter von LLMs in Einklang zu bringen, trainiert GenLIP einen ViT direkt dazu, Sprach-Tokens aus visuellen Tokens unter Verwendung eines standardmäßigen Sprachmodellierungsziels vorherzusagen – ohne kontrastive Batch-Konstruktion oder einen zusätzlichen Text-Decoder. Dieses Design bietet drei wesentliche Vorteile: (1) Einfachheit: Ein einzelner Transformer modelliert gemeinsam visuelle und textuelle Tokens; (2) Skalierbarkeit: Es skaliert effektiv mit Daten- und Modellgröße; und (3) Leistung: Es erzielt wettbewerbsfähige oder überlegene Ergebnisse in diversen multimodalen Benchmarks. Nach dem Training mit 8 Milliarden Stichproben aus Recap-DataComp-1B erreicht GenLIP vergleichbare oder bessere Ergebnisse als starke Baseline-Modelle, obwohl erheblich weniger Vor-Trainingsdaten verwendet wurden. Nach weiterem Vor-Training mit Multi-Resolution-Bildern in nativen Seitenverhältnissen verbessert GenLIP seine Leistung bei detail-sensitiven Aufgaben wie OCR und Chart-Verständnis weiter, was ihn zu einer soliden Grundlage für Vision-Encoder in MLLMs macht.
English
In this paper, we present Generative Language-Image Pre-training (GenLIP), a minimalist generative pretraining framework for Vision Transformers (ViTs) designed for multimodal large language models (MLLMs). To better align vision encoders with the autoregressive nature of LLMs, GenLIP trains a ViT to predict language tokens directly from visual tokens using a standard language modeling objective, without contrastive batch construction or an additional text decoder. This design offers three key advantages: (1) Simplicity: a single transformer jointly models visual and textual tokens; (2) Scalability: it scales effectively with both data and model size; and (3) Performance: it achieves competitive or superior results across diverse multimodal benchmarks. Trained on 8B samples from Recap-DataComp-1B, GenLIP matches or surpasses strong baselines despite using substantially less pretraining data. After continued pretraining on multi-resolution images at native aspect ratios, GenLIP further improves on detail-sensitive tasks such as OCR and chart understanding, making it a strong foundation for vision encoders in MLLMs.
PDF91May 5, 2026