ChatPaper.aiChatPaper

Accélération des LLMs de diffusion via un décodage parallèle adaptatif

Accelerating Diffusion LLMs via Adaptive Parallel Decoding

May 31, 2025
Auteurs: Daniel Israel, Guy Van den Broeck, Aditya Grover
cs.AI

Résumé

La vitesse de génération des LLM est limitée par le décodage autorégressif, où les tokens sont prédits séquentiellement un par un. Alternativement, les modèles de langage de grande taille par diffusion (dLLM) permettent théoriquement une génération parallèle de tokens, mais en pratique peinent à atteindre la vitesse des modèles autorégressifs sans sacrifier significativement la qualité. Nous introduisons donc le décodage parallèle adaptatif (APD), une méthode novatrice qui ajuste dynamiquement le nombre de tokens échantillonnés en parallèle. Nous y parvenons en définissant un mélange multiplicatif entre les probabilités marginales du dLLM et la probabilité conjointe des séquences sous un petit modèle autorégressif auxiliaire. Cela inverse la configuration standard du décodage spéculatif, où l'objectif est d'échantillonner à partir d'un vérificateur autorégressif de grande taille en proposant des séquences à partir d'un modèle plus petit. Nous optimisons en outre l'APD en activant la mise en cache KV et en limitant la taille de l'entrée masquée. Au total, notre méthode propose trois paramètres ajustables pour équilibrer de manière flexible le débit et la qualité. Nous montrons que l'APD offre un débit nettement supérieur avec des dégradations minimes de la qualité sur les benchmarks en aval.
English
The generation speed of LLMs are bottlenecked by autoregressive decoding, where tokens are predicted sequentially one by one. Alternatively, diffusion large language models (dLLMs) theoretically allow for parallel token generation, but in practice struggle to achieve the speed of autoregressive models without significantly sacrificing quality. We therefore introduce adaptive parallel decoding (APD), a novel method that dynamically adjusts the number of tokens sampled in parallel. We achieve this by defining a multiplicative mixture between the dLLM marginal probabilities and the joint probability of sequences under a small auxiliary autoregressive model. This inverts the standard setup of speculative decoding, where the goal is to sample from a large autoregressive verifier by drafting from a smaller model. We further optimize APD by enabling KV caching and limiting the size of the masked input. Altogether, our method puts forward three tunable parameters to flexibly tradeoff throughput and quality. We show that APD provides markedly higher throughput with minimal quality degradations on downstream benchmarks.
PDF62June 4, 2025