ChatPaper.aiChatPaper

Diffusione Programmata

Planned Diffusion

October 20, 2025
Autori: Daniel Israel, Tian Jin, Ellie Cheng, Guy Van den Broeck, Aditya Grover, Suvinay Subramanian, Michael Carbin
cs.AI

Abstract

Una delle principali sfide nell'inferenza dei modelli linguistici di grandi dimensioni è il compromesso tra velocità di generazione e qualità dell'output. I modelli autoregressivi producono testi di alta qualità ma generano i token in modo sequenziale. I modelli di diffusione possono generare token in parallelo, ma spesso richiedono molte iterazioni per raggiungere la stessa qualità. Proponiamo la "diffusione pianificata", un metodo ibrido che combina i punti di forza di entrambi i paradigmi. La diffusione pianificata opera in due fasi: prima, il modello crea un breve piano autoregressivo che suddivide l'output in span più piccoli e indipendenti. Secondo, il modello genera questi span simultaneamente utilizzando la diffusione. Questo approccio espande la frontiera di Pareto tra velocità e qualità e offre un percorso pratico per una generazione di testi più veloce e di alta qualità. Su AlpacaEval, una suite di 805 prompt di istruzioni, la diffusione pianificata raggiunge un compromesso Pareto-ottimale tra qualità e latenza, ottenendo un'accelerazione da 1,27x a 1,81x rispetto alla generazione autoregressiva con un calo del tasso di vittoria compreso tra lo 0,87% e il 5,4%, rispettivamente. La nostra analisi di sensibilità mostra che il meccanismo di pianificazione della diffusione pianificata è minimo e affidabile, e che esistono semplici controlli in fase di esecuzione per fornire una gestione flessibile del compromesso qualità-latenza.
English
A central challenge in large language model inference is the trade-off between generation speed and output quality. Autoregressive models produce high-quality text but generate tokens sequentially. Diffusion models can generate tokens in parallel but often need many iterations to match the same quality. We propose planned diffusion, a hybrid method that combines the strengths of both paradigms. Planned diffusion works in two stages: first, the model creates a short autoregressive plan that breaks the output into smaller, independent spans. Second, the model generates these spans simultaneously using diffusion. This approach expands the speed-quality Pareto frontier and provides a practical path to faster, high-quality text generation. On AlpacaEval, a suite of 805 instruction-following prompts, planned diffusion achieves Pareto-optimal trade-off between quality and latency, achieving 1.27x to 1.81x speedup over autoregressive generation with only 0.87\% to 5.4\% drop in win rate, respectively. Our sensitivity analysis shows that the planning mechanism of planned diffusion is minimal and reliable, and simple runtime knobs exist to provide flexible control of the quality-latency trade-off.
PDF22October 22, 2025