GAS: Mejora de la Discretización de EDOs de Difusión mediante un Solucionador Adversarial Generalizado
GAS: Improving Discretization of Diffusion ODEs via Generalized Adversarial Solver
October 20, 2025
Autores: Aleksandr Oganov, Ilya Bykov, Eva Neudachina, Mishan Aliev, Alexander Tolmachev, Alexander Sidorov, Aleksandr Zuev, Andrey Okhotin, Denis Rakitin, Aibek Alanov
cs.AI
Resumen
Aunque los modelos de difusión alcanzan una calidad de generación de vanguardia, todavía presentan un muestreo computacionalmente costoso. Trabajos recientes abordan este problema mediante métodos de optimización basados en gradientes que destilan un solucionador de EDO de difusión de pocos pasos a partir del proceso de muestreo completo, reduciendo el número de evaluaciones de funciones de docenas a solo unas pocas. Sin embargo, estos enfoques suelen depender de técnicas de entrenamiento intrincadas y no se centran explícitamente en preservar detalles de grano fino. En este artículo, presentamos el Solucionador Generalizado: una parametrización simple del muestreador de EDO que no requiere trucos adicionales de entrenamiento y mejora la calidad sobre los enfoques existentes. Además, combinamos la pérdida de destilación original con entrenamiento adversario, lo que mitiga artefactos y mejora la fidelidad de los detalles. Llamamos al método resultante Solucionador Adversario Generalizado y demostramos su rendimiento superior en comparación con los métodos de entrenamiento de solucionadores existentes bajo restricciones de recursos similares. El código está disponible en https://github.com/3145tttt/GAS.
English
While diffusion models achieve state-of-the-art generation quality, they
still suffer from computationally expensive sampling. Recent works address this
issue with gradient-based optimization methods that distill a few-step ODE
diffusion solver from the full sampling process, reducing the number of
function evaluations from dozens to just a few. However, these approaches often
rely on intricate training techniques and do not explicitly focus on preserving
fine-grained details. In this paper, we introduce the Generalized Solver: a
simple parameterization of the ODE sampler that does not require additional
training tricks and improves quality over existing approaches. We further
combine the original distillation loss with adversarial training, which
mitigates artifacts and enhances detail fidelity. We call the resulting method
the Generalized Adversarial Solver and demonstrate its superior performance
compared to existing solver training methods under similar resource
constraints. Code is available at https://github.com/3145tttt/GAS.