ChatPaper.aiChatPaper

Apprentissage des champs de flux dans l'attention pour la génération d'images de personnes contrôlables

Learning Flow Fields in Attention for Controllable Person Image Generation

December 11, 2024
Auteurs: Zijian Zhou, Shikun Liu, Xiao Han, Haozhe Liu, Kam Woh Ng, Tian Xie, Yuren Cong, Hang Li, Mengmeng Xu, Juan-Manuel Pérez-Rúa, Aditya Patel, Tao Xiang, Miaojing Shi, Sen He
cs.AI

Résumé

La génération d'images de personne contrôlables vise à générer une image de personne conditionnée par des images de référence, permettant un contrôle précis sur l'apparence ou la pose de la personne. Cependant, les méthodes précédentes ont souvent déformé les détails texturaux fins de l'image de référence, malgré une qualité d'image globale élevée. Nous attribuons ces distorsions à une attention insuffisante aux régions correspondantes de l'image de référence. Pour remédier à cela, nous proposons donc d'apprendre des champs de flux dans l'attention (Leffa), qui guident explicitement la requête cible pour qu'elle se concentre sur la bonne clé de référence dans la couche d'attention lors de l'entraînement. Plus précisément, cela est réalisé via une perte de régularisation sur la carte d'attention au sein d'une ligne de base basée sur la diffusion. Nos expériences approfondies montrent que Leffa atteint des performances de pointe dans le contrôle de l'apparence (essayage virtuel) et de la pose (transfert de pose), réduisant significativement la distorsion des détails fins tout en maintenant une haute qualité d'image. De plus, nous montrons que notre perte est indépendante du modèle et peut être utilisée pour améliorer les performances d'autres modèles de diffusion.
English
Controllable person image generation aims to generate a person image conditioned on reference images, allowing precise control over the person's appearance or pose. However, prior methods often distort fine-grained textural details from the reference image, despite achieving high overall image quality. We attribute these distortions to inadequate attention to corresponding regions in the reference image. To address this, we thereby propose learning flow fields in attention (Leffa), which explicitly guides the target query to attend to the correct reference key in the attention layer during training. Specifically, it is realized via a regularization loss on top of the attention map within a diffusion-based baseline. Our extensive experiments show that Leffa achieves state-of-the-art performance in controlling appearance (virtual try-on) and pose (pose transfer), significantly reducing fine-grained detail distortion while maintaining high image quality. Additionally, we show that our loss is model-agnostic and can be used to improve the performance of other diffusion models.

Summary

AI-Generated Summary

PDF376December 12, 2024