ChatPaper.aiChatPaper

GAS: Mejora de la Discretización de EDOs de Difusión mediante un Solucionador Adversarial Generalizado

GAS: Improving Discretization of Diffusion ODEs via Generalized Adversarial Solver

October 20, 2025
Autores: Aleksandr Oganov, Ilya Bykov, Eva Neudachina, Mishan Aliev, Alexander Tolmachev, Alexander Sidorov, Aleksandr Zuev, Andrey Okhotin, Denis Rakitin, Aibek Alanov
cs.AI

Resumen

Aunque los modelos de difusión alcanzan una calidad de generación de vanguardia, todavía presentan un muestreo computacionalmente costoso. Trabajos recientes abordan este problema mediante métodos de optimización basados en gradientes que destilan un solucionador de EDO de difusión de pocos pasos a partir del proceso de muestreo completo, reduciendo el número de evaluaciones de funciones de docenas a solo unas pocas. Sin embargo, estos enfoques suelen depender de técnicas de entrenamiento intrincadas y no se centran explícitamente en preservar detalles de grano fino. En este artículo, presentamos el Solucionador Generalizado: una parametrización simple del muestreador de EDO que no requiere trucos adicionales de entrenamiento y mejora la calidad sobre los enfoques existentes. Además, combinamos la pérdida de destilación original con entrenamiento adversario, lo que mitiga artefactos y mejora la fidelidad de los detalles. Llamamos al método resultante Solucionador Adversario Generalizado y demostramos su rendimiento superior en comparación con los métodos de entrenamiento de solucionadores existentes bajo restricciones de recursos similares. El código está disponible en https://github.com/3145tttt/GAS.
English
While diffusion models achieve state-of-the-art generation quality, they still suffer from computationally expensive sampling. Recent works address this issue with gradient-based optimization methods that distill a few-step ODE diffusion solver from the full sampling process, reducing the number of function evaluations from dozens to just a few. However, these approaches often rely on intricate training techniques and do not explicitly focus on preserving fine-grained details. In this paper, we introduce the Generalized Solver: a simple parameterization of the ODE sampler that does not require additional training tricks and improves quality over existing approaches. We further combine the original distillation loss with adversarial training, which mitigates artifacts and enhances detail fidelity. We call the resulting method the Generalized Adversarial Solver and demonstrate its superior performance compared to existing solver training methods under similar resource constraints. Code is available at https://github.com/3145tttt/GAS.
PDF202October 22, 2025