Feynman-Kac-correctoren in diffusie: Uitgloeien, begeleiding en product van experts
Feynman-Kac Correctors in Diffusion: Annealing, Guidance, and Product of Experts
March 4, 2025
Auteurs: Marta Skreta, Tara Akhound-Sadegh, Viktor Ohanesian, Roberto Bondesan, Alán Aspuru-Guzik, Arnaud Doucet, Rob Brekelmans, Alexander Tong, Kirill Neklyudov
cs.AI
Samenvatting
Hoewel score-gebaseerde generatieve modellen het voorkeursmodel zijn in diverse domeinen, zijn er beperkte tools beschikbaar voor het op een principiële manier beheersen van gedrag tijdens inferentie, bijvoorbeeld voor het combineren van meerdere vooraf getrainde modellen. Bestaande methoden voor classifier-free guidance gebruiken een eenvoudige heuristiek om conditionele en niet-conditionele scores te mengen om ongeveer te bemonsteren uit conditionele verdelingen. Dergelijke methoden benaderen echter niet de tussenliggende verdelingen, wat extra 'corrector'-stappen noodzakelijk maakt. In dit werk bieden we een efficiënte en principiële methode voor het bemonsteren uit een reeks van geannealde, geometrisch gemiddelde of productverdelingen afgeleid van vooraf getrainde score-gebaseerde modellen. We leiden een gewogen simulatiewijze af die we Feynman-Kac Correctors (FKCs) noemen, gebaseerd op de beroemde Feynman-Kac-formule door zorgvuldig rekening te houden met termen in de bijbehorende partiële differentiaalvergelijkingen (PDE's). Om deze PDE's te simuleren, stellen we Sequential Monte Carlo (SMC) resampling-algoritmen voor die gebruikmaken van schaling tijdens inferentie om de bemonsteringskwaliteit te verbeteren. We tonen empirisch het nut van onze methoden aan door geamortiseerd bemonsteren via temperatuurannealing tijdens inferentie voor te stellen, de generatie van moleculen met meerdere doelen te verbeteren met behulp van vooraf getrainde modellen, en classifier-free guidance voor tekst-naar-beeldgeneratie te verbeteren. Onze code is beschikbaar op https://github.com/martaskrt/fkc-diffusion.
English
While score-based generative models are the model of choice across diverse
domains, there are limited tools available for controlling inference-time
behavior in a principled manner, e.g. for composing multiple pretrained models.
Existing classifier-free guidance methods use a simple heuristic to mix
conditional and unconditional scores to approximately sample from conditional
distributions. However, such methods do not approximate the intermediate
distributions, necessitating additional 'corrector' steps. In this work, we
provide an efficient and principled method for sampling from a sequence of
annealed, geometric-averaged, or product distributions derived from pretrained
score-based models. We derive a weighted simulation scheme which we call
Feynman-Kac Correctors (FKCs) based on the celebrated Feynman-Kac formula by
carefully accounting for terms in the appropriate partial differential
equations (PDEs). To simulate these PDEs, we propose Sequential Monte Carlo
(SMC) resampling algorithms that leverage inference-time scaling to improve
sampling quality. We empirically demonstrate the utility of our methods by
proposing amortized sampling via inference-time temperature annealing,
improving multi-objective molecule generation using pretrained models, and
improving classifier-free guidance for text-to-image generation. Our code is
available at https://github.com/martaskrt/fkc-diffusion.Summary
AI-Generated Summary