ChatPaper.aiChatPaper

Correctores de Feynman-Kac en Difusión: Recocido, Guiado y Producto de Expertos

Feynman-Kac Correctors in Diffusion: Annealing, Guidance, and Product of Experts

March 4, 2025
Autores: Marta Skreta, Tara Akhound-Sadegh, Viktor Ohanesian, Roberto Bondesan, Alán Aspuru-Guzik, Arnaud Doucet, Rob Brekelmans, Alexander Tong, Kirill Neklyudov
cs.AI

Resumen

Si bien los modelos generativos basados en puntuaciones son el modelo preferido en diversos dominios, existen herramientas limitadas disponibles para controlar el comportamiento durante la inferencia de manera fundamentada, por ejemplo, para componer múltiples modelos preentrenados. Los métodos existentes de guía sin clasificador utilizan una heurística simple para mezclar puntuaciones condicionales e incondicionales y muestrear aproximadamente de distribuciones condicionales. Sin embargo, dichos métodos no aproximan las distribuciones intermedias, lo que requiere pasos adicionales de 'corrección'. En este trabajo, proporcionamos un método eficiente y fundamentado para muestrear a partir de una secuencia de distribuciones recocidas, promediadas geométricamente o producto derivadas de modelos basados en puntuaciones preentrenados. Derivamos un esquema de simulación ponderada al que llamamos Correctores de Feynman-Kac (FKCs, por sus siglas en inglés), basado en la célebre fórmula de Feynman-Kac, al considerar cuidadosamente los términos en las ecuaciones diferenciales parciales (EDPs) apropiadas. Para simular estas EDPs, proponemos algoritmos de remuestreo de Monte Carlo Secuencial (SMC, por sus siglas en inglés) que aprovechan el escalado durante la inferencia para mejorar la calidad del muestreo. Demostramos empíricamente la utilidad de nuestros métodos al proponer muestreo amortizado mediante recocido de temperatura durante la inferencia, mejorar la generación de moléculas multiobjetivo utilizando modelos preentrenados y mejorar la guía sin clasificador para la generación de imágenes a partir de texto. Nuestro código está disponible en https://github.com/martaskrt/fkc-diffusion.
English
While score-based generative models are the model of choice across diverse domains, there are limited tools available for controlling inference-time behavior in a principled manner, e.g. for composing multiple pretrained models. Existing classifier-free guidance methods use a simple heuristic to mix conditional and unconditional scores to approximately sample from conditional distributions. However, such methods do not approximate the intermediate distributions, necessitating additional 'corrector' steps. In this work, we provide an efficient and principled method for sampling from a sequence of annealed, geometric-averaged, or product distributions derived from pretrained score-based models. We derive a weighted simulation scheme which we call Feynman-Kac Correctors (FKCs) based on the celebrated Feynman-Kac formula by carefully accounting for terms in the appropriate partial differential equations (PDEs). To simulate these PDEs, we propose Sequential Monte Carlo (SMC) resampling algorithms that leverage inference-time scaling to improve sampling quality. We empirically demonstrate the utility of our methods by proposing amortized sampling via inference-time temperature annealing, improving multi-objective molecule generation using pretrained models, and improving classifier-free guidance for text-to-image generation. Our code is available at https://github.com/martaskrt/fkc-diffusion.

Summary

AI-Generated Summary

PDF22March 11, 2025