ChatPaper.aiChatPaper

Aprendizado de Campos de Fluxo na Atenção para Geração de Imagens de Pessoa Controláveis

Learning Flow Fields in Attention for Controllable Person Image Generation

December 11, 2024
Autores: Zijian Zhou, Shikun Liu, Xiao Han, Haozhe Liu, Kam Woh Ng, Tian Xie, Yuren Cong, Hang Li, Mengmeng Xu, Juan-Manuel Pérez-Rúa, Aditya Patel, Tao Xiang, Miaojing Shi, Sen He
cs.AI

Resumo

A geração de imagem de pessoa controlável tem como objetivo gerar uma imagem de pessoa condicionada a imagens de referência, permitindo controle preciso sobre a aparência ou pose da pessoa. No entanto, métodos anteriores frequentemente distorcem detalhes texturais refinados da imagem de referência, apesar de alcançarem alta qualidade geral de imagem. Atribuímos essas distorções à atenção inadequada às regiões correspondentes na imagem de referência. Para abordar isso, propomos, portanto, aprender campos de fluxo na atenção (Leffa), que guiam explicitamente a consulta alvo para atentar à chave de referência correta na camada de atenção durante o treinamento. Especificamente, isso é realizado por meio de uma perda de regularização sobre o mapa de atenção dentro de uma linha de base baseada em difusão. Nossos experimentos extensivos mostram que Leffa alcança desempenho de ponta no controle de aparência (prova virtual de roupas) e pose (transferência de pose), reduzindo significativamente a distorção de detalhes refinados, mantendo alta qualidade de imagem. Além disso, demonstramos que nossa perda é independente do modelo e pode ser usada para melhorar o desempenho de outros modelos de difusão.
English
Controllable person image generation aims to generate a person image conditioned on reference images, allowing precise control over the person's appearance or pose. However, prior methods often distort fine-grained textural details from the reference image, despite achieving high overall image quality. We attribute these distortions to inadequate attention to corresponding regions in the reference image. To address this, we thereby propose learning flow fields in attention (Leffa), which explicitly guides the target query to attend to the correct reference key in the attention layer during training. Specifically, it is realized via a regularization loss on top of the attention map within a diffusion-based baseline. Our extensive experiments show that Leffa achieves state-of-the-art performance in controlling appearance (virtual try-on) and pose (pose transfer), significantly reducing fine-grained detail distortion while maintaining high image quality. Additionally, we show that our loss is model-agnostic and can be used to improve the performance of other diffusion models.

Summary

AI-Generated Summary

PDF376December 12, 2024