KV-Paket: Neuberechnungsfreies, kontextunabhängiges KV-Caching für LLMs
KV Packet: Recomputation-Free Context-Independent KV Caching for LLMs
April 14, 2026
Autoren: Chuangtao Chen, Grace Li Zhang, Xunzhao Yin, Cheng Zhuo, Bing Li, Ulf Schlichtmann
cs.AI
Zusammenfassung
Große Sprachmodelle (LLMs) sind stark auf Key-Value (KV)-Caching angewiesen, um die Inferenzlatenz zu minimieren. Standard-KV-Caches sind jedoch kontextabhängig: Die Wiederverwendung eines zwischengespeicherten Dokuments in einem neuen Kontext erfordert eine Neuberechnung der KV-Zustände, um Verschiebungen in der Aufmerksamkeitsverteilung zu berücksichtigen. Bestehende Lösungen wie CacheBlend, EPIC und SAM-KV mildern dieses Problem durch selektive Neuberechnung einer Teilmenge von Tokens; dennoch verursachen sie nicht vernachlässigbare Rechenkosten (FLOPs) und erhöhte Time-to-First-Token (TTFT)-Latenz. In diesem Artikel schlagen wir KV Packet vor, ein Framework zur Wiederverwendung von Caches ohne Neuberechnung, das zwischengespeicherte Dokumente als unveränderliche „Pakete“ behandelt, die in leichtgewichtige trainierbare Soft-Token-Adapter eingebettet sind. Diese Adapter werden durch selbstüberwachte Distillation trainiert, um Kontextdiskontinuitäten zu überbrücken. Experimente mit Llama-3.1 und Qwen2.5 zeigen, dass die vorgeschlagene KV-Packet-Methode nahezu null FLOPs und eine niedrigere TTFT als neuberechnungsbasierte Baseline-Verfahren erreicht, bei gleichzeitigem Erhalt von F1-Scores, die mit denen der vollständigen Neuberechnungs-Baseline vergleichbar sind.
English
Large Language Models (LLMs) rely heavily on Key-Value (KV) caching to minimize inference latency. However, standard KV caches are context-dependent: reusing a cached document in a new context requires recomputing KV states to account for shifts in attention distribution. Existing solutions such as CacheBlend, EPIC, and SAM-KV mitigate this issue by selectively recomputing a subset of tokens; however, they still incur non-negligible computational overhead (FLOPs) and increased Time-to-First-Token (TTFT) latency. In this paper, we propose KV Packet, a recomputation-free cache reuse framework that treats cached documents as immutable ``packets'' wrapped in light-weight trainable soft-token adapters, which are trained via self-supervised distillation to bridge context discontinuities. Experiments on Llama-3.1 and Qwen2.5 demonstrate that the proposed KV Packet method achieves near-zero FLOPs and lower TTFT than recomputation-based baselines, while retaining F1 scores comparable to those of the full recomputation baseline.