ChatPaper.aiChatPaper

HiGS: Campionamento Guidato dalla Cronologia per il Miglioramento Plug-and-Play dei Modelli di Diffusione

HiGS: History-Guided Sampling for Plug-and-Play Enhancement of Diffusion Models

September 26, 2025
Autori: Seyedmorteza Sadat, Farnood Salehi, Romann M. Weber
cs.AI

Abstract

Sebbene i modelli di diffusione abbiano compiuto progressi significativi nella generazione di immagini, i loro output possono ancora apparire irrealistici e privi di dettagli fini, specialmente quando si utilizza un numero ridotto di valutazioni di funzioni neurali (NFEs) o scale di guida più basse. Per affrontare questo problema, proponiamo una nuova tecnica di campionamento basata sul momento, denominata campionamento guidato dalla storia (HiGS), che migliora la qualità e l'efficienza del campionamento di diffusione integrando le previsioni recenti del modello in ogni passo di inferenza. Nello specifico, HiGS sfrutta la differenza tra la previsione corrente e una media ponderata delle previsioni passate per orientare il processo di campionamento verso output più realistici con migliori dettagli e struttura. Il nostro approccio introduce praticamente nessun calcolo aggiuntivo e si integra perfettamente nei framework di diffusione esistenti, senza richiedere ulteriori addestramenti o fine-tuning. Esperimenti estensivi dimostrano che HiGS migliora costantemente la qualità delle immagini attraverso diversi modelli e architetture, e con vari budget di campionamento e scale di guida. Inoltre, utilizzando un modello SiT preaddestrato, HiGS raggiunge un nuovo stato dell'arte FID di 1,61 per la generazione non guidata di ImageNet a 256x256 con soli 30 passi di campionamento (invece dei 250 standard). Presentiamo quindi HiGS come un miglioramento plug-and-play al campionamento di diffusione standard che consente una generazione più veloce con una fedeltà superiore.
English
While diffusion models have made remarkable progress in image generation, their outputs can still appear unrealistic and lack fine details, especially when using fewer number of neural function evaluations (NFEs) or lower guidance scales. To address this issue, we propose a novel momentum-based sampling technique, termed history-guided sampling (HiGS), which enhances quality and efficiency of diffusion sampling by integrating recent model predictions into each inference step. Specifically, HiGS leverages the difference between the current prediction and a weighted average of past predictions to steer the sampling process toward more realistic outputs with better details and structure. Our approach introduces practically no additional computation and integrates seamlessly into existing diffusion frameworks, requiring neither extra training nor fine-tuning. Extensive experiments show that HiGS consistently improves image quality across diverse models and architectures and under varying sampling budgets and guidance scales. Moreover, using a pretrained SiT model, HiGS achieves a new state-of-the-art FID of 1.61 for unguided ImageNet generation at 256times256 with only 30 sampling steps (instead of the standard 250). We thus present HiGS as a plug-and-play enhancement to standard diffusion sampling that enables faster generation with higher fidelity.
PDF32September 29, 2025