Difusión Planificada
Planned Diffusion
October 20, 2025
Autores: Daniel Israel, Tian Jin, Ellie Cheng, Guy Van den Broeck, Aditya Grover, Suvinay Subramanian, Michael Carbin
cs.AI
Resumen
Un desafío central en la inferencia de modelos de lenguaje de gran escala es el equilibrio entre la velocidad de generación y la calidad de la salida. Los modelos autorregresivos producen texto de alta calidad pero generan tokens de manera secuencial. Los modelos de difusión pueden generar tokens en paralelo, pero a menudo requieren muchas iteraciones para alcanzar la misma calidad. Proponemos la difusión planificada, un método híbrido que combina las fortalezas de ambos paradigmas. La difusión planificada funciona en dos etapas: primero, el modelo crea un plan autorregresivo breve que divide la salida en segmentos más pequeños e independientes. Segundo, el modelo genera estos segmentos simultáneamente utilizando difusión. Este enfoque amplía la frontera de Pareto entre velocidad y calidad y ofrece un camino práctico hacia la generación de texto más rápida y de alta calidad. En AlpacaEval, un conjunto de 805 indicaciones de seguimiento de instrucciones, la difusión planificada logra un equilibrio Pareto-óptimo entre calidad y latencia, alcanzando una aceleración de 1.27x a 1.81x sobre la generación autorregresiva con solo una caída del 0.87% al 5.4% en la tasa de éxito, respectivamente. Nuestro análisis de sensibilidad muestra que el mecanismo de planificación de la difusión planificada es mínimo y confiable, y existen controles simples en tiempo de ejecución para proporcionar un control flexible del equilibrio entre calidad y latencia.
English
A central challenge in large language model inference is the trade-off
between generation speed and output quality. Autoregressive models produce
high-quality text but generate tokens sequentially. Diffusion models can
generate tokens in parallel but often need many iterations to match the same
quality. We propose planned diffusion, a hybrid method that combines the
strengths of both paradigms. Planned diffusion works in two stages: first, the
model creates a short autoregressive plan that breaks the output into smaller,
independent spans. Second, the model generates these spans simultaneously using
diffusion. This approach expands the speed-quality Pareto frontier and provides
a practical path to faster, high-quality text generation. On AlpacaEval, a
suite of 805 instruction-following prompts, planned diffusion achieves
Pareto-optimal trade-off between quality and latency, achieving 1.27x to 1.81x
speedup over autoregressive generation with only 0.87\% to 5.4\% drop in win
rate, respectively. Our sensitivity analysis shows that the planning mechanism
of planned diffusion is minimal and reliable, and simple runtime knobs exist to
provide flexible control of the quality-latency trade-off.