ChatPaper.aiChatPaper

GAS: Verbesserung der Diskretisierung von Diffusions-ODEs durch einen generalisierten adversariellen Löser

GAS: Improving Discretization of Diffusion ODEs via Generalized Adversarial Solver

October 20, 2025
papers.authors: Aleksandr Oganov, Ilya Bykov, Eva Neudachina, Mishan Aliev, Alexander Tolmachev, Alexander Sidorov, Aleksandr Zuev, Andrey Okhotin, Denis Rakitin, Aibek Alanov
cs.AI

papers.abstract

Während Diffusionsmodelle eine erstklassige Generierungsqualität erreichen, leiden sie immer noch unter rechenintensivem Sampling. Neuere Arbeiten adressieren dieses Problem mit gradientenbasierten Optimierungsmethoden, die einen ODE-Diffusionslöser mit wenigen Schritten aus dem vollständigen Sampling-Prozess destillieren und so die Anzahl der Funktionsauswertungen von Dutzenden auf nur wenige reduzieren. Diese Ansätze verlassen sich jedoch oft auf komplexe Trainingstechniken und konzentrieren sich nicht explizit auf die Bewahrung feinster Details. In dieser Arbeit führen wir den Generalisierten Löser ein: eine einfache Parametrisierung des ODE-Samplers, die keine zusätzlichen Trainingstricks erfordert und die Qualität gegenüber bestehenden Ansätzen verbessert. Wir kombinieren weiterhin den ursprünglichen Destillationsverlust mit adversariellem Training, was Artefakte reduziert und die Detailtreue erhöht. Die resultierende Methode nennen wir den Generalisierten Adversariellen Löser und demonstrieren seine überlegene Leistung im Vergleich zu bestehenden Löser-Trainingsmethoden unter ähnlichen Ressourcenbeschränkungen. Der Code ist verfügbar unter https://github.com/3145tttt/GAS.
English
While diffusion models achieve state-of-the-art generation quality, they still suffer from computationally expensive sampling. Recent works address this issue with gradient-based optimization methods that distill a few-step ODE diffusion solver from the full sampling process, reducing the number of function evaluations from dozens to just a few. However, these approaches often rely on intricate training techniques and do not explicitly focus on preserving fine-grained details. In this paper, we introduce the Generalized Solver: a simple parameterization of the ODE sampler that does not require additional training tricks and improves quality over existing approaches. We further combine the original distillation loss with adversarial training, which mitigates artifacts and enhances detail fidelity. We call the resulting method the Generalized Adversarial Solver and demonstrate its superior performance compared to existing solver training methods under similar resource constraints. Code is available at https://github.com/3145tttt/GAS.
PDF202October 22, 2025