ChatPaper.aiChatPaper

Correcteurs de Feynman-Kac en diffusion : Recuit, Guidage et Produit d'Experts

Feynman-Kac Correctors in Diffusion: Annealing, Guidance, and Product of Experts

March 4, 2025
Auteurs: Marta Skreta, Tara Akhound-Sadegh, Viktor Ohanesian, Roberto Bondesan, Alán Aspuru-Guzik, Arnaud Doucet, Rob Brekelmans, Alexander Tong, Kirill Neklyudov
cs.AI

Résumé

Bien que les modèles génératifs basés sur les scores soient le modèle de choix dans divers domaines, les outils disponibles pour contrôler de manière rigoureuse le comportement lors de l'inférence sont limités, par exemple pour composer plusieurs modèles préentraînés. Les méthodes existantes de guidage sans classificateur utilisent une heuristique simple pour mélanger les scores conditionnels et inconditionnels afin d'échantillonner approximativement à partir de distributions conditionnelles. Cependant, ces méthodes n'approximent pas les distributions intermédiaires, nécessitant des étapes supplémentaires de 'correction'. Dans ce travail, nous proposons une méthode efficace et rigoureuse pour échantillonner à partir d'une séquence de distributions recuitées, moyennées géométriquement ou produits, dérivées de modèles basés sur les scores préentraînés. Nous dérivons un schéma de simulation pondéré que nous appelons Correcteurs de Feynman-Kac (FKCs), basé sur la célèbre formule de Feynman-Kac, en tenant soigneusement compte des termes dans les équations aux dérivées partielles (EDP) appropriées. Pour simuler ces EDP, nous proposons des algorithmes de rééchantillonnage par Monte Carlo séquentiel (SMC) qui exploitent la mise à l'échelle lors de l'inférence pour améliorer la qualité de l'échantillonnage. Nous démontrons empiriquement l'utilité de nos méthodes en proposant un échantillonnage amorti via un recuit de température lors de l'inférence, en améliorant la génération de molécules multi-objectifs à l'aide de modèles préentraînés, et en améliorant le guidage sans classificateur pour la génération d'images à partir de texte. Notre code est disponible à l'adresse https://github.com/martaskrt/fkc-diffusion.
English
While score-based generative models are the model of choice across diverse domains, there are limited tools available for controlling inference-time behavior in a principled manner, e.g. for composing multiple pretrained models. Existing classifier-free guidance methods use a simple heuristic to mix conditional and unconditional scores to approximately sample from conditional distributions. However, such methods do not approximate the intermediate distributions, necessitating additional 'corrector' steps. In this work, we provide an efficient and principled method for sampling from a sequence of annealed, geometric-averaged, or product distributions derived from pretrained score-based models. We derive a weighted simulation scheme which we call Feynman-Kac Correctors (FKCs) based on the celebrated Feynman-Kac formula by carefully accounting for terms in the appropriate partial differential equations (PDEs). To simulate these PDEs, we propose Sequential Monte Carlo (SMC) resampling algorithms that leverage inference-time scaling to improve sampling quality. We empirically demonstrate the utility of our methods by proposing amortized sampling via inference-time temperature annealing, improving multi-objective molecule generation using pretrained models, and improving classifier-free guidance for text-to-image generation. Our code is available at https://github.com/martaskrt/fkc-diffusion.

Summary

AI-Generated Summary

PDF22March 11, 2025