ChatPaper.aiChatPaper

Verstärkung von Diffusionsmodellen durch direkte Gruppenpräferenzoptimierung

Reinforcing Diffusion Models by Direct Group Preference Optimization

October 9, 2025
papers.authors: Yihong Luo, Tianyang Hu, Jing Tang
cs.AI

papers.abstract

Während Reinforcement-Learning-Methoden wie Group Relative Preference Optimization (GRPO) große Sprachmodelle erheblich verbessert haben, bleibt die Anpassung an Diffusionsmodelle eine Herausforderung. Insbesondere erfordert GRPO eine stochastische Policy, doch die kosteneffizientesten Diffusionssampler basieren auf deterministischen ODEs. Aktuelle Arbeiten adressieren dieses Problem durch den Einsatz ineffizienter SDE-basierter Sampler, um Stochastizität zu erzeugen, doch die Abhängigkeit von modellagnostischem Gaußschen Rauschen führt zu langsamer Konvergenz. Um diesen Konflikt zu lösen, schlagen wir Direct Group Preference Optimization (DGPO) vor, einen neuen Online-RL-Algorithmus, der den Policy-Gradient-Ansatz vollständig umgeht. DGPO lernt direkt aus gruppenbasierten Präferenzen, die relative Informationen von Proben innerhalb von Gruppen nutzen. Dieser Entwurf eliminiert die Notwendigkeit ineffizienter stochastischer Policies und ermöglicht den Einsatz effizienter deterministischer ODE-Sampler sowie schnelleres Training. Umfangreiche Ergebnisse zeigen, dass DGPO etwa 20-mal schneller trainiert als bestehende State-of-the-Art-Methoden und sowohl bei in-domain als auch out-of-domain Belohnungsmetriken überlegene Leistung erzielt. Der Code ist verfügbar unter https://github.com/Luo-Yihong/DGPO.
English
While reinforcement learning methods such as Group Relative Preference Optimization (GRPO) have significantly enhanced Large Language Models, adapting them to diffusion models remains challenging. In particular, GRPO demands a stochastic policy, yet the most cost-effective diffusion samplers are based on deterministic ODEs. Recent work addresses this issue by using inefficient SDE-based samplers to induce stochasticity, but this reliance on model-agnostic Gaussian noise leads to slow convergence. To resolve this conflict, we propose Direct Group Preference Optimization (DGPO), a new online RL algorithm that dispenses with the policy-gradient framework entirely. DGPO learns directly from group-level preferences, which utilize relative information of samples within groups. This design eliminates the need for inefficient stochastic policies, unlocking the use of efficient deterministic ODE samplers and faster training. Extensive results show that DGPO trains around 20 times faster than existing state-of-the-art methods and achieves superior performance on both in-domain and out-of-domain reward metrics. Code is available at https://github.com/Luo-Yihong/DGPO.
PDF82October 10, 2025