ChatPaper.aiChatPaper

Modelos de Difusão Latente Livres de Aliasing: Melhorando a Equivariância de Deslocamento Fracionário no Espaço Latente de Difusão

Alias-Free Latent Diffusion Models:Improving Fractional Shift Equivariance of Diffusion Latent Space

March 12, 2025
Autores: Yifan Zhou, Zeqi Xiao, Shuai Yang, Xingang Pan
cs.AI

Resumo

Os Modelos de Difusão Latente (LDMs) são conhecidos por terem um processo de geração instável, onde até mesmo pequenas perturbações ou deslocamentos no ruído de entrada podem levar a saídas significativamente diferentes. Isso dificulta sua aplicabilidade em cenários que exigem resultados consistentes. Neste trabalho, redesenhamos os LDMs para melhorar a consistência, tornando-os invariantes a deslocamentos (shift-equivariant). Embora a introdução de operações de anti-aliasing possa melhorar parcialmente a invariância a deslocamentos, problemas significativos de aliasing e inconsistência persistem devido aos desafios únicos dos LDMs, incluindo 1) a amplificação de aliasing durante o treinamento do VAE e as múltiplas inferências da U-Net, e 2) os módulos de auto-atenção que, por natureza, carecem de invariância a deslocamentos. Para resolver esses problemas, redesenhamos os módulos de atenção para serem invariantes a deslocamentos e propomos uma função de perda de invariância que suprime efetivamente a largura de banda das frequências das características no domínio contínuo. O LDM resultante, livre de aliasing (AF-LDM), alcança uma forte invariância a deslocamentos e também é robusto a deformações irregulares. Experimentos extensivos demonstram que o AF-LDM produz resultados significativamente mais consistentes do que o LDM tradicional em diversas aplicações, incluindo edição de vídeo e tradução de imagem para imagem. O código está disponível em: https://github.com/SingleZombie/AFLDM.
English
Latent Diffusion Models (LDMs) are known to have an unstable generation process, where even small perturbations or shifts in the input noise can lead to significantly different outputs. This hinders their applicability in applications requiring consistent results. In this work, we redesign LDMs to enhance consistency by making them shift-equivariant. While introducing anti-aliasing operations can partially improve shift-equivariance, significant aliasing and inconsistency persist due to the unique challenges in LDMs, including 1) aliasing amplification during VAE training and multiple U-Net inferences, and 2) self-attention modules that inherently lack shift-equivariance. To address these issues, we redesign the attention modules to be shift-equivariant and propose an equivariance loss that effectively suppresses the frequency bandwidth of the features in the continuous domain. The resulting alias-free LDM (AF-LDM) achieves strong shift-equivariance and is also robust to irregular warping. Extensive experiments demonstrate that AF-LDM produces significantly more consistent results than vanilla LDM across various applications, including video editing and image-to-image translation. Code is available at: https://github.com/SingleZombie/AFLDM

Summary

AI-Generated Summary

PDF62March 13, 2025