MergeVQ: Единая структура для визуальной генерации и представления с разделенным объединением и квантованием токенов
MergeVQ: A Unified Framework for Visual Generation and Representation with Disentangled Token Merging and Quantization
April 1, 2025
Авторы: Siyuan Li, Luyuan Zhang, Zedong Wang, Juanxi Tian, Cheng Tan, Zicheng Liu, Chang Yu, Qingsong Xie, Haonan Lu, Haoqian Wang, Zhen Lei
cs.AI
Аннотация
Маскированное моделирование изображений (MIM) с векторным квантованием (VQ) достигло значительных успехов как в самоконтролируемом предварительном обучении, так и в генерации изображений. Однако большинство существующих методов сталкиваются с трудностями в поиске баланса в общем латентном пространстве между качеством генерации, обучением представлений и эффективностью. Чтобы расширить границы этой парадигмы, мы предлагаем MergeVQ, который интегрирует методы объединения токенов в генеративные модели на основе VQ, чтобы устранить разрыв между генерацией изображений и обучением визуальных представлений в единой архитектуре. В процессе предварительного обучения MergeVQ разделяет топ-k семантику от латентного пространства с помощью модуля объединения токенов после блоков самовнимания в кодировщике для последующего квантования без поиска (LFQ) и глобального выравнивания, а затем восстанавливает их детализированные характеристики через кросс-внимание в декодере для реконструкции. Что касается второго этапа генерации, мы представляем MergeAR, который выполняет сжатие KV Cache для эффективного прогнозирования в растровом порядке. Многочисленные эксперименты на ImageNet подтверждают, что MergeVQ как генеративная модель с авторегрессией демонстрирует конкурентоспособные результаты как в задачах обучения визуальных представлений, так и в генерации изображений, сохраняя при этом высокую эффективность работы с токенами и скорость вывода. Код и модель будут доступны по адресу https://apexgen-x.github.io/MergeVQ.
English
Masked Image Modeling (MIM) with Vector Quantization (VQ) has achieved great
success in both self-supervised pre-training and image generation. However,
most existing methods struggle to address the trade-off in shared latent space
for generation quality vs. representation learning and efficiency. To push the
limits of this paradigm, we propose MergeVQ, which incorporates token merging
techniques into VQ-based generative models to bridge the gap between image
generation and visual representation learning in a unified architecture. During
pre-training, MergeVQ decouples top-k semantics from latent space with the
token merge module after self-attention blocks in the encoder for subsequent
Look-up Free Quantization (LFQ) and global alignment and recovers their
fine-grained details through cross-attention in the decoder for reconstruction.
As for the second-stage generation, we introduce MergeAR, which performs KV
Cache compression for efficient raster-order prediction. Extensive experiments
on ImageNet verify that MergeVQ as an AR generative model achieves competitive
performance in both visual representation learning and image generation tasks
while maintaining favorable token efficiency and inference speed. The code and
model will be available at https://apexgen-x.github.io/MergeVQ.Summary
AI-Generated Summary