ChatPaper.aiChatPaper

Обучение потоковых полей внимания для управляемой генерации изображений персон.

Learning Flow Fields in Attention for Controllable Person Image Generation

December 11, 2024
Авторы: Zijian Zhou, Shikun Liu, Xiao Han, Haozhe Liu, Kam Woh Ng, Tian Xie, Yuren Cong, Hang Li, Mengmeng Xu, Juan-Manuel Pérez-Rúa, Aditya Patel, Tao Xiang, Miaojing Shi, Sen He
cs.AI

Аннотация

Генерация изображения управляемого человека направлена на создание изображения человека на основе ссылочных изображений, обеспечивая точный контроль над внешностью или позой человека. Однако ранее использованные методы часто искажали мелкозернистые текстурные детали из ссылочного изображения, несмотря на достижение высокого общего качества изображения. Мы приписываем эти искажения недостаточному вниманию к соответствующим областям в ссылочном изображении. Для решения этой проблемы мы предлагаем метод обучения потоковых полей внимания (Leffa), который явно направляет целевой запрос на правильный ключ ссылки в слое внимания во время обучения. Конкретно, это достигается с помощью регуляризационной потери поверх карты внимания в рамках базового подхода на основе диффузии. Наши обширные эксперименты показывают, что Leffa достигает передового качества в контроле внешности (виртуальная примерка одежды) и позы (перенос позы), значительно снижая искажение мелкозернистых деталей, сохраняя при этом высокое качество изображения. Кроме того, мы показываем, что наша потеря не зависит от модели и может быть использована для улучшения производительности других моделей диффузии.
English
Controllable person image generation aims to generate a person image conditioned on reference images, allowing precise control over the person's appearance or pose. However, prior methods often distort fine-grained textural details from the reference image, despite achieving high overall image quality. We attribute these distortions to inadequate attention to corresponding regions in the reference image. To address this, we thereby propose learning flow fields in attention (Leffa), which explicitly guides the target query to attend to the correct reference key in the attention layer during training. Specifically, it is realized via a regularization loss on top of the attention map within a diffusion-based baseline. Our extensive experiments show that Leffa achieves state-of-the-art performance in controlling appearance (virtual try-on) and pose (pose transfer), significantly reducing fine-grained detail distortion while maintaining high image quality. Additionally, we show that our loss is model-agnostic and can be used to improve the performance of other diffusion models.

Summary

AI-Generated Summary

PDF376December 12, 2024