ChatPaper.aiChatPaper

ViCO: Una strategia di addestramento verso un'alta risoluzione dinamica consapevole della semantica

ViCO: A Training Strategy towards Semantic Aware Dynamic High-Resolution

October 14, 2025
Autori: Long Cui, Weiyun Wang, Jie Shao, Zichen Wen, Gen Luo, Linfeng Zhang, Yanting Zhang, Yu Qiao, Wenhai Wang
cs.AI

Abstract

I modelli linguistici multimodali di grandi dimensioni (MLLM) esistenti soffrono di costi di inferenza aumentati a causa dei token visivi aggiuntivi introdotti dagli input di immagini. In questo lavoro, proponiamo il Visual Consistency Learning (ViCO), un nuovo algoritmo di addestramento che consente al modello di rappresentare immagini con diverse complessità semantiche utilizzando un numero variabile di token visivi. L'idea chiave del nostro metodo è impiegare più connettori MLP, ciascuno con un diverso rapporto di compressione dell'immagine, per ridurre il campionamento dei token visivi in base alla complessità semantica dell'immagine. Durante l'addestramento, minimizziamo la divergenza KL tra le risposte condizionate su diversi connettori MLP. Al momento dell'inferenza, introduciamo un router di immagini, denominato Visual Resolution Router (ViR), che seleziona automaticamente il tasso di compressione appropriato per ogni patch di immagine. Rispetto alle strategie dinamiche ad alta risoluzione esistenti, che regolano il numero di token visivi in base alle risoluzioni delle immagini, il nostro metodo adatta dinamicamente il numero di token visivi in base alla complessità semantica. I risultati sperimentali dimostrano che il nostro metodo può ridurre il numero di token visivi fino al 50% mantenendo le capacità di percezione, ragionamento e OCR del modello. Speriamo che questo lavoro contribuisca allo sviluppo di MLLM più efficienti. Il codice e i modelli verranno rilasciati per facilitare la ricerca futura.
English
Existing Multimodal Large Language Models (MLLMs) suffer from increased inference costs due to the additional vision tokens introduced by image inputs. In this work, we propose Visual Consistency Learning (ViCO), a novel training algorithm that enables the model to represent images of varying semantic complexities using different numbers of vision tokens. The key idea behind our method is to employ multiple MLP connectors, each with a different image compression ratio, to downsample the vision tokens based on the semantic complexity of the image. During training, we minimize the KL divergence between the responses conditioned on different MLP connectors. At inference time, we introduce an image router, termed Visual Resolution Router (ViR), that automatically selects the appropriate compression rate for each image patch. Compared with existing dynamic high-resolution strategies, which adjust the number of visual tokens based on image resolutions, our method dynamically adapts the number of visual tokens according to semantic complexity. Experimental results demonstrate that our method can reduce the number of vision tokens by up to 50% while maintaining the model's perception, reasoning, and OCR capabilities. We hope this work will contribute to the development of more efficient MLLMs. The code and models will be released to facilitate future research.
PDF22October 15, 2025