ChatPaper.aiChatPaper

ViCO: Uma Estratégia de Treinamento para Alcançar Consciência Semântica Dinâmica em Alta Resolução

ViCO: A Training Strategy towards Semantic Aware Dynamic High-Resolution

October 14, 2025
Autores: Long Cui, Weiyun Wang, Jie Shao, Zichen Wen, Gen Luo, Linfeng Zhang, Yanting Zhang, Yu Qiao, Wenhai Wang
cs.AI

Resumo

Os Modelos de Linguagem Multimodais de Grande Escala (MLLMs) existentes sofrem com o aumento dos custos de inferência devido aos tokens visuais adicionais introduzidos pelas entradas de imagens. Neste trabalho, propomos o Aprendizado de Consistência Visual (ViCO), um novo algoritmo de treinamento que permite ao modelo representar imagens de diferentes complexidades semânticas usando números variados de tokens visuais. A ideia central do nosso método é empregar múltiplos conectores MLP, cada um com uma taxa de compressão de imagem diferente, para reduzir a resolução dos tokens visuais com base na complexidade semântica da imagem. Durante o treinamento, minimizamos a divergência KL entre as respostas condicionadas em diferentes conectores MLP. No momento da inferência, introduzimos um roteador de imagens, denominado Roteador de Resolução Visual (ViR), que seleciona automaticamente a taxa de compressão apropriada para cada segmento de imagem. Em comparação com as estratégias dinâmicas de alta resolução existentes, que ajustam o número de tokens visuais com base nas resoluções das imagens, nosso método adapta dinamicamente o número de tokens visuais de acordo com a complexidade semântica. Resultados experimentais demonstram que nosso método pode reduzir o número de tokens visuais em até 50% enquanto mantém as capacidades de percepção, raciocínio e OCR do modelo. Esperamos que este trabalho contribua para o desenvolvimento de MLLMs mais eficientes. O código e os modelos serão liberados para facilitar pesquisas futuras.
English
Existing Multimodal Large Language Models (MLLMs) suffer from increased inference costs due to the additional vision tokens introduced by image inputs. In this work, we propose Visual Consistency Learning (ViCO), a novel training algorithm that enables the model to represent images of varying semantic complexities using different numbers of vision tokens. The key idea behind our method is to employ multiple MLP connectors, each with a different image compression ratio, to downsample the vision tokens based on the semantic complexity of the image. During training, we minimize the KL divergence between the responses conditioned on different MLP connectors. At inference time, we introduce an image router, termed Visual Resolution Router (ViR), that automatically selects the appropriate compression rate for each image patch. Compared with existing dynamic high-resolution strategies, which adjust the number of visual tokens based on image resolutions, our method dynamically adapts the number of visual tokens according to semantic complexity. Experimental results demonstrate that our method can reduce the number of vision tokens by up to 50% while maintaining the model's perception, reasoning, and OCR capabilities. We hope this work will contribute to the development of more efficient MLLMs. The code and models will be released to facilitate future research.
PDF42February 7, 2026