ChatPaper.aiChatPaper

Diffusion Planifiée

Planned Diffusion

October 20, 2025
papers.authors: Daniel Israel, Tian Jin, Ellie Cheng, Guy Van den Broeck, Aditya Grover, Suvinay Subramanian, Michael Carbin
cs.AI

papers.abstract

Un défi central dans l'inférence des grands modèles de langage est l'arbitrage entre la vitesse de génération et la qualité des résultats. Les modèles autorégressifs produisent des textes de haute qualité mais génèrent les tokens de manière séquentielle. Les modèles de diffusion peuvent générer des tokens en parallèle, mais nécessitent souvent de nombreuses itérations pour atteindre une qualité équivalente. Nous proposons la diffusion planifiée, une méthode hybride qui combine les forces des deux paradigmes. La diffusion planifiée fonctionne en deux étapes : d'abord, le modèle crée un plan autorégressif court qui divise la sortie en segments plus petits et indépendants. Ensuite, le modèle génère ces segments simultanément en utilisant la diffusion. Cette approche élargit la frontière de Pareto vitesse-qualité et offre une voie pratique pour une génération de texte plus rapide et de haute qualité. Sur AlpacaEval, une suite de 805 prompts d'exécution d'instructions, la diffusion planifiée atteint un arbitrage Pareto-optimal entre qualité et latence, obtenant une accélération de 1,27x à 1,81x par rapport à la génération autorégressive avec seulement une baisse de 0,87 % à 5,4 % du taux de réussite, respectivement. Notre analyse de sensibilité montre que le mécanisme de planification de la diffusion planifiée est minimal et fiable, et que des paramètres d'exécution simples existent pour offrir un contrôle flexible de l'arbitrage qualité-latence.
English
A central challenge in large language model inference is the trade-off between generation speed and output quality. Autoregressive models produce high-quality text but generate tokens sequentially. Diffusion models can generate tokens in parallel but often need many iterations to match the same quality. We propose planned diffusion, a hybrid method that combines the strengths of both paradigms. Planned diffusion works in two stages: first, the model creates a short autoregressive plan that breaks the output into smaller, independent spans. Second, the model generates these spans simultaneously using diffusion. This approach expands the speed-quality Pareto frontier and provides a practical path to faster, high-quality text generation. On AlpacaEval, a suite of 805 instruction-following prompts, planned diffusion achieves Pareto-optimal trade-off between quality and latency, achieving 1.27x to 1.81x speedup over autoregressive generation with only 0.87\% to 5.4\% drop in win rate, respectively. Our sensitivity analysis shows that the planning mechanism of planned diffusion is minimal and reliable, and simple runtime knobs exist to provide flexible control of the quality-latency trade-off.
PDF22October 22, 2025