KV Packet: Контекстно-независимое кэширование KV без рекомпьютации для больших языковых моделей
KV Packet: Recomputation-Free Context-Independent KV Caching for LLMs
April 14, 2026
Авторы: Chuangtao Chen, Grace Li Zhang, Xunzhao Yin, Cheng Zhuo, Bing Li, Ulf Schlichtmann
cs.AI
Аннотация
Крупные языковые модели (LLM) в значительной степени полагаются на кэширование ключей и значений (KV) для минимизации задержки вывода. Однако стандартные KV-кэши являются контекстно-зависимыми: повторное использование закэшированного документа в новом контексте требует пересчета KV-состояний для учета изменений в распределении внимания. Существующие решения, такие как CacheBlend, EPIC и SAM-KV, смягчают эту проблему путем выборочного пересчета подмножества токенов; однако они все же несут не negligible вычислительные затраты (FLOPs) и увеличивают задержку до первого токена (TTFT). В данной статье мы предлагаем KV Packet — фреймворк для повторного использования кэша без пересчета, который трактует закэшированные документы как неизменяемые «пакеты», обернутые в легковесные обучаемые адаптеры мягких токенов, которые обучаются с помощью самоконтролируемой дистилляции для преодоления разрывов контекста. Эксперименты на моделях Llama-3.1 и Qwen2.5 демонстрируют, что предложенный метод KV Packet достигает почти нулевых FLOPs и более низкого TTFT по сравнению с базовыми методами, основанными на пересчете, сохраняя при этом показатели F1, сопоставимые с показателями полного пересчета.
English
Large Language Models (LLMs) rely heavily on Key-Value (KV) caching to minimize inference latency. However, standard KV caches are context-dependent: reusing a cached document in a new context requires recomputing KV states to account for shifts in attention distribution. Existing solutions such as CacheBlend, EPIC, and SAM-KV mitigate this issue by selectively recomputing a subset of tokens; however, they still incur non-negligible computational overhead (FLOPs) and increased Time-to-First-Token (TTFT) latency. In this paper, we propose KV Packet, a recomputation-free cache reuse framework that treats cached documents as immutable ``packets'' wrapped in light-weight trainable soft-token adapters, which are trained via self-supervised distillation to bridge context discontinuities. Experiments on Llama-3.1 and Qwen2.5 demonstrate that the proposed KV Packet method achieves near-zero FLOPs and lower TTFT than recomputation-based baselines, while retaining F1 scores comparable to those of the full recomputation baseline.