ChatPaper.aiChatPaper

HiGS: Muestreo Guiado por Historia para la Mejora Plug-and-Play de Modelos de Difusión

HiGS: History-Guided Sampling for Plug-and-Play Enhancement of Diffusion Models

September 26, 2025
Autores: Seyedmorteza Sadat, Farnood Salehi, Romann M. Weber
cs.AI

Resumen

Aunque los modelos de difusión han logrado avances notables en la generación de imágenes, sus resultados aún pueden parecer poco realistas y carecer de detalles finos, especialmente cuando se utiliza un menor número de evaluaciones de funciones neuronales (NFEs, por sus siglas en inglés) o escalas de guía más bajas. Para abordar este problema, proponemos una novedosa técnica de muestreo basada en momentum, denominada muestreo guiado por historial (HiGS, por sus siglas en inglés), que mejora la calidad y la eficiencia del muestreo de difusión al integrar predicciones recientes del modelo en cada paso de inferencia. Específicamente, HiGS aprovecha la diferencia entre la predicción actual y un promedio ponderado de predicciones pasadas para dirigir el proceso de muestreo hacia resultados más realistas con mejores detalles y estructura. Nuestro enfoque introduce prácticamente ningún cálculo adicional y se integra sin problemas en los marcos de difusión existentes, sin requerir entrenamiento adicional ni ajustes finos. Experimentos extensos muestran que HiGS mejora consistentemente la calidad de las imágenes en diversos modelos y arquitecturas, y bajo diferentes presupuestos de muestreo y escalas de guía. Además, utilizando un modelo SiT preentrenado, HiGS alcanza un nuevo estado del arte con un FID de 1.61 para la generación no guiada de ImageNet a 256x256 con solo 30 pasos de muestreo (en lugar de los 250 estándar). Por lo tanto, presentamos HiGS como una mejora plug-and-play para el muestreo estándar de difusión que permite una generación más rápida con mayor fidelidad.
English
While diffusion models have made remarkable progress in image generation, their outputs can still appear unrealistic and lack fine details, especially when using fewer number of neural function evaluations (NFEs) or lower guidance scales. To address this issue, we propose a novel momentum-based sampling technique, termed history-guided sampling (HiGS), which enhances quality and efficiency of diffusion sampling by integrating recent model predictions into each inference step. Specifically, HiGS leverages the difference between the current prediction and a weighted average of past predictions to steer the sampling process toward more realistic outputs with better details and structure. Our approach introduces practically no additional computation and integrates seamlessly into existing diffusion frameworks, requiring neither extra training nor fine-tuning. Extensive experiments show that HiGS consistently improves image quality across diverse models and architectures and under varying sampling budgets and guidance scales. Moreover, using a pretrained SiT model, HiGS achieves a new state-of-the-art FID of 1.61 for unguided ImageNet generation at 256times256 with only 30 sampling steps (instead of the standard 250). We thus present HiGS as a plug-and-play enhancement to standard diffusion sampling that enables faster generation with higher fidelity.
PDF22September 29, 2025