ChatPaper.aiChatPaper

Set Block Decoding is een versneller voor taalmodelinferentie.

Set Block Decoding is a Language Model Inference Accelerator

September 4, 2025
Auteurs: Itai Gat, Heli Ben-Hamu, Marton Havasi, Daniel Haziza, Jeremy Reizenstein, Gabriel Synnaeve, David Lopez-Paz, Brian Karrer, Yaron Lipman
cs.AI

Samenvatting

Autoregressieve taalmodellen voor next token prediction bieden krachtige mogelijkheden, maar worden in de praktijk geconfronteerd met aanzienlijke uitdagingen bij implementatie vanwege de hoge reken- en geheugenkosten van inferentie, met name tijdens het decoderingstraject. Wij introduceren Set Block Decoding (SBD), een eenvoudig en flexibel paradigma dat de generatie versnelt door standaard next token prediction (NTP) en masked token prediction (MATP) te integreren binnen een enkele architectuur. SBD stelt het model in staat om meerdere, niet noodzakelijk opeenvolgende, toekomstige tokens parallel te bemonsteren, een belangrijk onderscheid ten opzichte van eerdere versnellingsmethoden. Deze flexibiliteit maakt het gebruik van geavanceerde oplossers uit de discrete diffusieliteratuur mogelijk, wat aanzienlijke snelheidswinsten biedt zonder in te leveren op nauwkeurigheid. SBD vereist geen architectuurwijzigingen of extra trainingshyperparameters, behoudt compatibiliteit met exacte KV-caching, en kan worden geïmplementeerd door bestaande next token prediction-modellen te fine-tunen. Door Llama-3.1 8B en Qwen-3 8B te fine-tunen, demonstreren we dat SBD een reductie van 3-5x in het aantal forward passes die nodig zijn voor generatie mogelijk maakt, terwijl dezelfde prestaties worden behaald als bij equivalente NTP-training.
English
Autoregressive next token prediction language models offer powerful capabilities but face significant challenges in practical deployment due to the high computational and memory costs of inference, particularly during the decoding stage. We introduce Set Block Decoding (SBD), a simple and flexible paradigm that accelerates generation by integrating standard next token prediction (NTP) and masked token prediction (MATP) within a single architecture. SBD allows the model to sample multiple, not necessarily consecutive, future tokens in parallel, a key distinction from previous acceleration methods. This flexibility allows the use of advanced solvers from the discrete diffusion literature, offering significant speedups without sacrificing accuracy. SBD requires no architectural changes or extra training hyperparameters, maintains compatibility with exact KV-caching, and can be implemented by fine-tuning existing next token prediction models. By fine-tuning Llama-3.1 8B and Qwen-3 8B, we demonstrate that SBD enables a 3-5x reduction in the number of forward passes required for generation while achieving same performance as equivalent NTP training.
PDF527September 8, 2025