ChatPaper.aiChatPaper

Quantização Plug-and-Play de Cache KV de 1.x Bits para Modelos de Linguagem de Grande Escala em Vídeo

Plug-and-Play 1.x-Bit KV Cache Quantization for Video Large Language Models

March 20, 2025
Autores: Keda Tao, Haoxuan You, Yang Sui, Can Qin, Huan Wang
cs.AI

Resumo

Modelos de linguagem de grande escala para vídeo (VideoLLMs) demonstraram a capacidade de processar entradas de vídeo mais longas e permitir raciocínio e análise complexos. No entanto, devido aos milhares de tokens visuais provenientes dos quadros de vídeo, o cache de chave-valor (KV) pode aumentar significativamente os requisitos de memória, tornando-se um gargalo para a velocidade de inferência e o uso de memória. A quantização do cache KV é uma abordagem amplamente utilizada para resolver esse problema. Neste artigo, descobrimos que a quantização de 2 bits do cache KV em VideoLLMs dificilmente prejudica o desempenho do modelo, enquanto o limite da quantização do cache KV em bits ainda mais baixos não foi investigado. Para preencher essa lacuna, introduzimos o VidKV, um método de quantização do cache KV plug-and-play para comprimir o cache KV para menos de 2 bits. Especificamente, (1) para a chave, propomos uma estratégia de quantização de precisão mista na dimensão do canal, onde realizamos quantização de 2 bits para canais anômalos e quantização de 1 bit combinada com FFT para canais normais; (2) para o valor, implementamos quantização de 1,58 bits enquanto filtramos seletivamente tokens visuais semanticamente salientes para preservação direcionada, visando um melhor equilíbrio entre precisão e desempenho do modelo. Importante, nossas descobertas sugerem que o cache de valor dos VideoLLMs deve ser quantizado de forma por canal, em vez da forma por token proposta por trabalhos anteriores de quantização do cache KV para LLMs. Empiricamente, resultados extensivos com LLaVA-OV-7B e Qwen2.5-VL-7B em seis benchmarks mostram que o VidKV comprime efetivamente o cache KV para precisões de 1,5 bit e 1,58 bit com quase nenhuma queda de desempenho em comparação com as contrapartes FP16.
English
Video large language models (VideoLLMs) have demonstrated the capability to process longer video inputs and enable complex reasoning and analysis. However, due to the thousands of visual tokens from the video frames, key-value (KV) cache can significantly increase memory requirements, becoming a bottleneck for inference speed and memory usage. KV cache quantization is a widely used approach to address this problem. In this paper, we find that 2-bit KV quantization of VideoLLMs can hardly hurt the model performance, while the limit of KV cache quantization in even lower bits has not been investigated. To bridge this gap, we introduce VidKV, a plug-and-play KV cache quantization method to compress the KV cache to lower than 2 bits. Specifically, (1) for key, we propose a mixed-precision quantization strategy in the channel dimension, where we perform 2-bit quantization for anomalous channels and 1-bit quantization combined with FFT for normal channels; (2) for value, we implement 1.58-bit quantization while selectively filtering semantically salient visual tokens for targeted preservation, for a better trade-off between precision and model performance. Importantly, our findings suggest that the value cache of VideoLLMs should be quantized in a per-channel fashion instead of the per-token fashion proposed by prior KV cache quantization works for LLMs. Empirically, extensive results with LLaVA-OV-7B and Qwen2.5-VL-7B on six benchmarks show that VidKV effectively compresses the KV cache to 1.5-bit and 1.58-bit precision with almost no performance drop compared to the FP16 counterparts.

Summary

AI-Generated Summary

PDF243March 21, 2025