Позвольте ViT говорить: генеративное языково-визуальное предварительное обучение
Let ViT Speak: Generative Language-Image Pre-training
May 1, 2026
Авторы: Yan Fang, Mengcheng Lan, Zilong Huang, Weixian Lei, Yunqing Zhao, Yujie Zhong, Yingchen Yu, Qi She, Yao Zhao, Yunchao Wei
cs.AI
Аннотация
В данной статье мы представляем Generative Language-Image Pre-training (GenLIP) — минималистичную генеративную фреймворк предварительного обучения для Vision Transformers (ViT), предназначенную для мультимодальных больших языковых моделей (MLLM). Для лучшего согласования визуальных энкодеров с авторегрессионной природой языковых моделей GenLIP обучает ViT предсказывать языковые токены непосредственно из визуальных токенов с использованием стандартной задачи языкового моделирования, без контрастивной пакетной конструкции или дополнительного текстового декодера. Данная архитектура предлагает три ключевых преимущества: (1) Простота: единый трансформер совместно моделирует визуальные и текстовые токены; (2) Масштабируемость: эффективное масштабирование с увеличением объема данных и размера модели; (3) Производительность: достижение конкурентоспособных или превосходящих результатов на различных мультимодальных бенчмарках. Обученная на 8 миллиардах примеров из Recap-DataComp-1B, GenLIP демонстрирует результаты на уровне или превосходящие сильные базовые модели, несмотря на использование значительно меньшего объема данных предварительного обучения. После дополнительного предобучения на изображениях с мультиразрешением и нативных соотношениях сторон, GenLIP дополнительно улучшает результаты в задачах, чувствительных к деталям, таких как распознавание текста (OCR) и понимание графиков, что делает ее надежной основой для визуальных энкодеров в MLLM.
English
In this paper, we present Generative Language-Image Pre-training (GenLIP), a minimalist generative pretraining framework for Vision Transformers (ViTs) designed for multimodal large language models (MLLMs). To better align vision encoders with the autoregressive nature of LLMs, GenLIP trains a ViT to predict language tokens directly from visual tokens using a standard language modeling objective, without contrastive batch construction or an additional text decoder. This design offers three key advantages: (1) Simplicity: a single transformer jointly models visual and textual tokens; (2) Scalability: it scales effectively with both data and model size; and (3) Performance: it achieves competitive or superior results across diverse multimodal benchmarks. Trained on 8B samples from Recap-DataComp-1B, GenLIP matches or surpasses strong baselines despite using substantially less pretraining data. After continued pretraining on multi-resolution images at native aspect ratios, GenLIP further improves on detail-sensitive tasks such as OCR and chart understanding, making it a strong foundation for vision encoders in MLLMs.