LogQuant: Логарифмически распределённая 2-битная квантизация кэша ключей и значений с превосходным сохранением точности
LogQuant: Log-Distributed 2-Bit Quantization of KV Cache with Superior Accuracy Preservation
March 25, 2025
Авторы: Han Chen, Zicong Jiang, Zining Zhang, Bingsheng He, Pingyi Luo, Mian Lu, Yuqiang Chen
cs.AI
Аннотация
Мы представляем LogQuant — революционную технику 2-битного квантования для KV-кэша в процессе вывода больших языковых моделей (LLM), которая обеспечивает значительную экономию памяти при сохранении превосходной производительности. Предыдущие методы либо предполагали, что более поздние токены более важны, либо пытались предсказать важные токены на основе ранних паттернов внимания. Однако оба подхода могут приводить к узким местам в производительности или частым ошибкам предсказания.
LogQuant использует иной подход. Применяя логарифмический механизм фильтрации, он выборочно сжимает KV-кэш по всему контексту, достигая лучшей производительности при том же или даже меньшем объеме памяти по сравнению с существующими методами. В тестах он увеличивает пропускную способность на 25% и размер пакета на 60% без увеличения потребления памяти. Для сложных задач, таких как решение математических задач и завершение кода, LogQuant повышает точность на 40–200% при том же уровне сжатия, превосходя аналогичные методы.
LogQuant легко интегрируется с популярными фреймворками для вывода, такими как библиотека transformers на Python. Реализация доступна по адресу: https://github.com/Concyclics/LogQuantKV.
English
We introduce LogQuant, a groundbreaking 2-bit quantization technique for KV
Cache in large language model (LLM) inference, delivering substantial memory
savings while preserving superior performance. Previous methods either assume
that later tokens are more important or attempt to predict important tokens
based on earlier attention patterns. Both approaches, however, can result in
performance bottlenecks or frequent mispredictions.
LogQuant takes a different approach. By applying a log-based filtering
mechanism, it selectively compresses the KV Cache across the entire context,
achieving better performance with the same or even reduced memory footprint
compared to existing methods. In benchmark tests, it enhances throughput by 25%
and boosts batch size by 60% without increasing memory consumption. For
challenging tasks such as Math and Code Completion, LogQuant improves accuracy
by 40% to 200% at the same compression ratio, outperforming comparable
techniques.LogQuant integrates effortlessly with popular inference frameworks
like Python's transformers library. Implementation can be available in
https://github.com/Concyclics/LogQuantKV.Summary
AI-Generated Summary