ChatPaper.aiChatPaper

FRAP: Generazione di Immagini da Testo Fedele e Realistica con Ponderazione Adattiva dei Prompt

FRAP: Faithful and Realistic Text-to-Image Generation with Adaptive Prompt Weighting

August 21, 2024
Autori: Liyao Jiang, Negar Hassanpour, Mohammad Salameh, Mohan Sai Singamsetti, Fengyu Sun, Wei Lu, Di Niu
cs.AI

Abstract

I modelli di diffusione text-to-image (T2I) hanno dimostrato capacità impressionanti nella generazione di immagini di alta qualità a partire da un prompt testuale. Tuttavia, garantire l'allineamento tra prompt e immagine rimane una sfida considerevole, ovvero generare immagini che rispecchino fedelmente la semantica del prompt. Recenti lavori tentano di migliorare la fedeltà ottimizzando il codice latente, il che potrebbe potenzialmente portare il codice latente fuori dalla distribuzione e quindi produrre immagini irrealistiche. In questo articolo, proponiamo FRAP, un approccio semplice ma efficace basato sulla regolazione adattiva dei pesi per ogni token del prompt per migliorare l'allineamento prompt-immagine e l'autenticità delle immagini generate. Progettiamo un algoritmo online per aggiornare adattivamente il coefficiente di peso di ciascun token, ottenuto minimizzando una funzione obiettivo unificata che incoraggia la presenza degli oggetti e il legame tra coppie oggetto-modificatore. Attraverso valutazioni estensive, dimostriamo che FRAP genera immagini con un allineamento prompt-immagine significativamente superiore rispetto a prompt provenienti da dataset complessi, pur avendo una latenza media inferiore rispetto ai recenti metodi di ottimizzazione del codice latente, ad esempio 4 secondi più veloce di D&B sul dataset COCO-Subject. Inoltre, attraverso confronti visivi e valutazioni sulla metrica CLIP-IQA-Real, mostriamo che FRAP non solo migliora l'allineamento prompt-immagine, ma genera anche immagini più autentiche con un aspetto realistico. Esploriamo inoltre la combinazione di FRAP con un LLM di riscrittura del prompt per recuperare il loro allineamento prompt-immagine degradato, osservando miglioramenti sia nell'allineamento prompt-immagine che nella qualità dell'immagine.
English
Text-to-image (T2I) diffusion models have demonstrated impressive capabilities in generating high-quality images given a text prompt. However, ensuring the prompt-image alignment remains a considerable challenge, i.e., generating images that faithfully align with the prompt's semantics. Recent works attempt to improve the faithfulness by optimizing the latent code, which potentially could cause the latent code to go out-of-distribution and thus produce unrealistic images. In this paper, we propose FRAP, a simple, yet effective approach based on adaptively adjusting the per-token prompt weights to improve prompt-image alignment and authenticity of the generated images. We design an online algorithm to adaptively update each token's weight coefficient, which is achieved by minimizing a unified objective function that encourages object presence and the binding of object-modifier pairs. Through extensive evaluations, we show FRAP generates images with significantly higher prompt-image alignment to prompts from complex datasets, while having a lower average latency compared to recent latent code optimization methods, e.g., 4 seconds faster than D&B on the COCO-Subject dataset. Furthermore, through visual comparisons and evaluation on the CLIP-IQA-Real metric, we show that FRAP not only improves prompt-image alignment but also generates more authentic images with realistic appearances. We also explore combining FRAP with prompt rewriting LLM to recover their degraded prompt-image alignment, where we observe improvements in both prompt-image alignment and image quality.
PDF72November 16, 2024