ChatPaper.aiChatPaper

Aprendizaje de Campos de Flujo en Atención para la Generación de Imágenes de Personas Controlables

Learning Flow Fields in Attention for Controllable Person Image Generation

December 11, 2024
Autores: Zijian Zhou, Shikun Liu, Xiao Han, Haozhe Liu, Kam Woh Ng, Tian Xie, Yuren Cong, Hang Li, Mengmeng Xu, Juan-Manuel Pérez-Rúa, Aditya Patel, Tao Xiang, Miaojing Shi, Sen He
cs.AI

Resumen

La generación de imágenes de personas controlables tiene como objetivo generar una imagen de persona condicionada a imágenes de referencia, permitiendo un control preciso sobre la apariencia o pose de la persona. Sin embargo, los métodos previos a menudo distorsionan detalles texturales detallados de la imagen de referencia, a pesar de lograr una alta calidad de imagen en general. Atribuimos estas distorsiones a una atención inadecuada a regiones correspondientes en la imagen de referencia. Para abordar esto, proponemos aprender campos de flujo en atención (Leffa), que guían explícitamente a la consulta objetivo para que preste atención a la clave de referencia correcta en la capa de atención durante el entrenamiento. Específicamente, se logra a través de una pérdida de regularización sobre el mapa de atención dentro de una línea base basada en difusión. Nuestros extensos experimentos muestran que Leffa logra un rendimiento de vanguardia en el control de la apariencia (prueba virtual de ropa) y la pose (transferencia de pose), reduciendo significativamente la distorsión de detalles detallados mientras mantiene una alta calidad de imagen. Además, demostramos que nuestra pérdida es independiente del modelo y puede utilizarse para mejorar el rendimiento de otros modelos de difusión.
English
Controllable person image generation aims to generate a person image conditioned on reference images, allowing precise control over the person's appearance or pose. However, prior methods often distort fine-grained textural details from the reference image, despite achieving high overall image quality. We attribute these distortions to inadequate attention to corresponding regions in the reference image. To address this, we thereby propose learning flow fields in attention (Leffa), which explicitly guides the target query to attend to the correct reference key in the attention layer during training. Specifically, it is realized via a regularization loss on top of the attention map within a diffusion-based baseline. Our extensive experiments show that Leffa achieves state-of-the-art performance in controlling appearance (virtual try-on) and pose (pose transfer), significantly reducing fine-grained detail distortion while maintaining high image quality. Additionally, we show that our loss is model-agnostic and can be used to improve the performance of other diffusion models.

Summary

AI-Generated Summary

PDF376December 12, 2024