ChatPaper.aiChatPaper

Evenwichtige Matching: Generatieve Modellering met Impliciete Energie-Gebaseerde Modellen

Equilibrium Matching: Generative Modeling with Implicit Energy-Based Models

October 2, 2025
Auteurs: Runqian Wang, Yilun Du
cs.AI

Samenvatting

We introduceren Equilibrium Matching (EqM), een generatief modelleerkader ontwikkeld vanuit een dynamisch evenwichtsperspectief. EqM verwerpt de niet-evenwichts, tijd-afhankelijke dynamiek in traditionele diffusie- en stroomgebaseerde generatieve modellen en leert in plaats daarvan het evenwichtsgradiënt van een impliciet energielandschap. Via deze aanpak kunnen we een op optimalisatie gebaseerd samplingproces toepassen tijdens inferentie, waarbij samples worden verkregen door gradiëntdaling op het geleerde landschap met instelbare stapgroottes, adaptieve optimalisatoren en adaptieve rekenkracht. EqM overtreft empirisch de generatieprestaties van diffusie/stroommodellen, met een FID van 1,90 op ImageNet 256×256. EqM is ook theoretisch onderbouwd om te leren en te samplen van het datamanifold. Naast generatie is EqM een flexibel kader dat natuurlijk taken aanpakt zoals gedeeltelijk verstoorde beelddenoising, OOD-detectie en beeldcompositie. Door tijd-afhankelijke snelheden te vervangen door een verenigd evenwichtslandschap, biedt EqM een nauwere verbinding tussen stroom- en energiegebaseerde modellen en een eenvoudige route naar optimalisatiegedreven inferentie.
English
We introduce Equilibrium Matching (EqM), a generative modeling framework built from an equilibrium dynamics perspective. EqM discards the non-equilibrium, time-conditional dynamics in traditional diffusion and flow-based generative models and instead learns the equilibrium gradient of an implicit energy landscape. Through this approach, we can adopt an optimization-based sampling process at inference time, where samples are obtained by gradient descent on the learned landscape with adjustable step sizes, adaptive optimizers, and adaptive compute. EqM surpasses the generation performance of diffusion/flow models empirically, achieving an FID of 1.90 on ImageNet 256times256. EqM is also theoretically justified to learn and sample from the data manifold. Beyond generation, EqM is a flexible framework that naturally handles tasks including partially noised image denoising, OOD detection, and image composition. By replacing time-conditional velocities with a unified equilibrium landscape, EqM offers a tighter bridge between flow and energy-based models and a simple route to optimization-driven inference.
PDF52October 8, 2025