Feedback Umano Arricchito per la Generazione di Immagini da Testo
Rich Human Feedback for Text-to-Image Generation
December 15, 2023
Autori: Youwei Liang, Junfeng He, Gang Li, Peizhao Li, Arseniy Klimovskiy, Nicholas Carolan, Jiao Sun, Jordi Pont-Tuset, Sarah Young, Feng Yang, Junjie Ke, Krishnamurthy Dj Dvijotham, Katie Collins, Yiwen Luo, Yang Li, Kai J Kohlhoff, Deepak Ramachandran, Vidhya Navalpakkam
cs.AI
Abstract
I recenti modelli di generazione da testo a immagine (Text-to-Image, T2I) come Stable Diffusion e Imagen hanno compiuto progressi significativi nella creazione di immagini ad alta risoluzione basate su descrizioni testuali. Tuttavia, molte immagini generate presentano ancora problemi come artefatti/implausibilità, disallineamento con le descrizioni testuali e bassa qualità estetica. Ispirati dal successo del Reinforcement Learning con Feedback Umano (RLHF) per i grandi modelli linguistici, lavori precedenti hanno raccolto punteggi forniti da esseri umani come feedback sulle immagini generate e hanno addestrato un modello di ricompensa per migliorare la generazione T2I. In questo articolo, arricchiamo il segnale di feedback (i) evidenziando le regioni dell'immagine che sono implausibili o disallineate con il testo, e (ii) annotando quali parole nel prompt testuale sono mal rappresentate o assenti nell'immagine. Raccogliamo tale feedback umano dettagliato su 18.000 immagini generate e addestriamo un trasformatore multimodale per prevedere automaticamente il feedback arricchito. Dimostriamo che il feedback umano arricchito previsto può essere sfruttato per migliorare la generazione delle immagini, ad esempio selezionando dati di addestramento di alta qualità per affinare e migliorare i modelli generativi, o creando maschere con mappe di calore previste per riempire le regioni problematiche. È degno di nota che i miglioramenti si generalizzano a modelli (Muse) oltre a quelli utilizzati per generare le immagini su cui sono stati raccolti i dati di feedback umano (varianti di Stable Diffusion).
English
Recent Text-to-Image (T2I) generation models such as Stable Diffusion and
Imagen have made significant progress in generating high-resolution images
based on text descriptions. However, many generated images still suffer from
issues such as artifacts/implausibility, misalignment with text descriptions,
and low aesthetic quality. Inspired by the success of Reinforcement Learning
with Human Feedback (RLHF) for large language models, prior works collected
human-provided scores as feedback on generated images and trained a reward
model to improve the T2I generation. In this paper, we enrich the feedback
signal by (i) marking image regions that are implausible or misaligned with the
text, and (ii) annotating which words in the text prompt are misrepresented or
missing on the image. We collect such rich human feedback on 18K generated
images and train a multimodal transformer to predict the rich feedback
automatically. We show that the predicted rich human feedback can be leveraged
to improve image generation, for example, by selecting high-quality training
data to finetune and improve the generative models, or by creating masks with
predicted heatmaps to inpaint the problematic regions. Notably, the
improvements generalize to models (Muse) beyond those used to generate the
images on which human feedback data were collected (Stable Diffusion variants).