Evenwichtige Matching: Generatieve Modellering met Impliciete Energie-Gebaseerde Modellen
Equilibrium Matching: Generative Modeling with Implicit Energy-Based Models
October 2, 2025
Auteurs: Runqian Wang, Yilun Du
cs.AI
Samenvatting
We introduceren Equilibrium Matching (EqM), een generatief modelleerkader ontwikkeld vanuit een dynamisch evenwichtsperspectief. EqM verwerpt de niet-evenwichts, tijd-afhankelijke dynamiek in traditionele diffusie- en stroomgebaseerde generatieve modellen en leert in plaats daarvan het evenwichtsgradiënt van een impliciet energielandschap. Via deze aanpak kunnen we een op optimalisatie gebaseerd samplingproces toepassen tijdens inferentie, waarbij samples worden verkregen door gradiëntdaling op het geleerde landschap met instelbare stapgroottes, adaptieve optimalisatoren en adaptieve rekenkracht. EqM overtreft empirisch de generatieprestaties van diffusie/stroommodellen, met een FID van 1,90 op ImageNet 256×256. EqM is ook theoretisch onderbouwd om te leren en te samplen van het datamanifold. Naast generatie is EqM een flexibel kader dat natuurlijk taken aanpakt zoals gedeeltelijk verstoorde beelddenoising, OOD-detectie en beeldcompositie. Door tijd-afhankelijke snelheden te vervangen door een verenigd evenwichtslandschap, biedt EqM een nauwere verbinding tussen stroom- en energiegebaseerde modellen en een eenvoudige route naar optimalisatiegedreven inferentie.
English
We introduce Equilibrium Matching (EqM), a generative modeling framework
built from an equilibrium dynamics perspective. EqM discards the
non-equilibrium, time-conditional dynamics in traditional diffusion and
flow-based generative models and instead learns the equilibrium gradient of an
implicit energy landscape. Through this approach, we can adopt an
optimization-based sampling process at inference time, where samples are
obtained by gradient descent on the learned landscape with adjustable step
sizes, adaptive optimizers, and adaptive compute. EqM surpasses the generation
performance of diffusion/flow models empirically, achieving an FID of 1.90 on
ImageNet 256times256. EqM is also theoretically justified to learn and
sample from the data manifold. Beyond generation, EqM is a flexible framework
that naturally handles tasks including partially noised image denoising, OOD
detection, and image composition. By replacing time-conditional velocities with
a unified equilibrium landscape, EqM offers a tighter bridge between flow and
energy-based models and a simple route to optimization-driven inference.