Corretores de Feynman-Kac em Difusão: Recozimento, Orientação e Produto de Especialistas
Feynman-Kac Correctors in Diffusion: Annealing, Guidance, and Product of Experts
March 4, 2025
Autores: Marta Skreta, Tara Akhound-Sadegh, Viktor Ohanesian, Roberto Bondesan, Alán Aspuru-Guzik, Arnaud Doucet, Rob Brekelmans, Alexander Tong, Kirill Neklyudov
cs.AI
Resumo
Embora os modelos generativos baseados em pontuação sejam o modelo preferido em diversos domínios, há ferramentas limitadas disponíveis para controlar o comportamento durante a inferência de maneira fundamentada, por exemplo, para compor múltiplos modelos pré-treinados. Os métodos existentes de orientação sem classificador utilizam uma heurística simples para misturar pontuações condicionais e incondicionais, amostrando aproximadamente de distribuições condicionais. No entanto, tais métodos não aproximam as distribuições intermediárias, exigindo etapas adicionais de "correção". Neste trabalho, fornecemos um método eficiente e fundamentado para amostrar de uma sequência de distribuições recozidas, com média geométrica ou produto, derivadas de modelos baseados em pontuação pré-treinados. Derivamos um esquema de simulação ponderada que chamamos de Corretores de Feynman-Kac (FKCs), baseado na célebre fórmula de Feynman-Kac, ao considerar cuidadosamente os termos nas equações diferenciais parciais (EDPs) apropriadas. Para simular essas EDPs, propomos algoritmos de reamostragem Sequential Monte Carlo (SMC) que aproveitam o dimensionamento durante a inferência para melhorar a qualidade da amostragem. Demonstramos empiricamente a utilidade de nossos métodos ao propor amostragem amortizada via recozimento de temperatura durante a inferência, melhorando a geração de moléculas multiobjetivo usando modelos pré-treinados e aprimorando a orientação sem classificador para geração de texto em imagem. Nosso código está disponível em https://github.com/martaskrt/fkc-diffusion.
English
While score-based generative models are the model of choice across diverse
domains, there are limited tools available for controlling inference-time
behavior in a principled manner, e.g. for composing multiple pretrained models.
Existing classifier-free guidance methods use a simple heuristic to mix
conditional and unconditional scores to approximately sample from conditional
distributions. However, such methods do not approximate the intermediate
distributions, necessitating additional 'corrector' steps. In this work, we
provide an efficient and principled method for sampling from a sequence of
annealed, geometric-averaged, or product distributions derived from pretrained
score-based models. We derive a weighted simulation scheme which we call
Feynman-Kac Correctors (FKCs) based on the celebrated Feynman-Kac formula by
carefully accounting for terms in the appropriate partial differential
equations (PDEs). To simulate these PDEs, we propose Sequential Monte Carlo
(SMC) resampling algorithms that leverage inference-time scaling to improve
sampling quality. We empirically demonstrate the utility of our methods by
proposing amortized sampling via inference-time temperature annealing,
improving multi-objective molecule generation using pretrained models, and
improving classifier-free guidance for text-to-image generation. Our code is
available at https://github.com/martaskrt/fkc-diffusion.Summary
AI-Generated Summary