Pranzo gratis per Pass@k? Campionamento diversificato a basso costo per modelli linguistici basati su diffusione
Free Lunch for Pass@k? Low Cost Diverse Sampling for Diffusion Language Models
March 5, 2026
Autori: Sean Lamont, Christian Walder, Paul Montague, Amir Dezfouli, Michael Norrish
cs.AI
Abstract
La generazione di output diversificati è necessaria per un'esplorazione efficace nei compiti di ragionamento complesso, come la generazione di codice e la risoluzione di problemi matematici. Problemi di tipo Pass@k beneficiano di candidati distinti che coprano lo spazio delle soluzioni. Tuttavia, gli approcci di campionamento tradizionali spesso sprecano risorse computazionali su modalità di fallimento ripetitive. Sebbene i Modelli Linguistici di Diffusione siano emersi come un'alternativa competitiva al paradigma Autoregressivo prevalente, rimangono suscettibili a questa ridondanza, con campioni indipendenti che collassano frequentemente in modalità simili. Per affrontare questo problema, proponiamo un intervento a basso costo e senza necessità di addestramento per migliorare la diversità generativa nei Modelli Linguistici di Diffusione. Il nostro approccio modifica sequenzialmente i campioni intermedi in un batch, dove ogni campione viene respinto dallo spazio delle caratteristiche dei campioni precedenti, penalizzando attivamente la ridondanza. A differenza dei metodi precedenti che richiedono riaddestramento o beam search, la nostra strategia comporta un overhead computazionale trascurabile, garantendo al contempo che ogni campione apporti una prospettiva unica al batch. Valutiamo il nostro metodo sui benchmark HumanEval e GSM8K utilizzando il modello LLaDA-8B-Instruct. I nostri risultati dimostrano un miglioramento significativo della diversità e delle prestazioni Pass@k attraverso varie impostazioni di temperatura. Come semplice modifica al processo di campionamento, il nostro metodo offre un miglioramento immediato e a basso costo per gli attuali e futuri Modelli Linguistici di Diffusione in compiti che beneficiano di una ricerca di soluzioni diversificata. Rendiamo disponibile il nostro codice all'indirizzo https://github.com/sean-lamont/odd.
English
Diverse outputs in text generation are necessary for effective exploration in complex reasoning tasks, such as code generation and mathematical problem solving. Such Pass@k problems benefit from distinct candidates covering the solution space. However, traditional sampling approaches often waste computational resources on repetitive failure modes. While Diffusion Language Models have emerged as a competitive alternative to the prevailing Autoregressive paradigm, they remain susceptible to this redundancy, with independent samples frequently collapsing into similar modes. To address this, we propose a training free, low cost intervention to enhance generative diversity in Diffusion Language Models. Our approach modifies intermediate samples in a batch sequentially, where each sample is repelled from the feature space of previous samples, actively penalising redundancy. Unlike prior methods that require retraining or beam search, our strategy incurs negligible computational overhead, while ensuring that each sample contributes a unique perspective to the batch. We evaluate our method on the HumanEval and GSM8K benchmarks using the LLaDA-8B-Instruct model. Our results demonstrate significantly improved diversity and Pass@k performance across various temperature settings. As a simple modification to the sampling process, our method offers an immediate, low-cost improvement for current and future Diffusion Language Models in tasks that benefit from diverse solution search. We make our code available at https://github.com/sean-lamont/odd.