Tamaño de paso óptimo para el muestreo de difusión
Optimal Stepsize for Diffusion Sampling
March 27, 2025
Autores: Jianning Pei, Han Hu, Shuyang Gu
cs.AI
Resumen
Los modelos de difusión logran una calidad de generación notable, pero sufren de un muestreo computacionalmente intensivo debido a una discretización de pasos subóptima. Mientras que trabajos existentes se centran en optimizar las direcciones de eliminación de ruido, nosotros abordamos el diseño fundamentado de los calendarios de tamaño de paso. Este artículo propone la Destilación de Tamaño de Paso Óptimo, un marco de programación dinámica que extrae calendarios teóricamente óptimos al destilar conocimiento de trayectorias de referencia. Al reformular la optimización del tamaño de paso como una minimización recursiva de errores, nuestro método garantiza límites globales de discretización mediante la explotación de subestructuras óptimas. Crucialmente, los calendarios destilados demuestran una fuerte robustez en arquitecturas, solucionadores de EDO y calendarios de ruido. Los experimentos muestran una generación de texto a imagen 10 veces más rápida mientras se preserva un 99.4% del rendimiento en GenEval. Nuestro código está disponible en https://github.com/bebebe666/OptimalSteps.
English
Diffusion models achieve remarkable generation quality but suffer from
computational intensive sampling due to suboptimal step discretization. While
existing works focus on optimizing denoising directions, we address the
principled design of stepsize schedules. This paper proposes Optimal Stepsize
Distillation, a dynamic programming framework that extracts theoretically
optimal schedules by distilling knowledge from reference trajectories. By
reformulating stepsize optimization as recursive error minimization, our method
guarantees global discretization bounds through optimal substructure
exploitation. Crucially, the distilled schedules demonstrate strong robustness
across architectures, ODE solvers, and noise schedules. Experiments show 10x
accelerated text-to-image generation while preserving 99.4% performance on
GenEval. Our code is available at https://github.com/bebebe666/OptimalSteps.Summary
AI-Generated Summary