Rijke Menselijke Feedback voor Tekst-naar-Beeld Generatie
Rich Human Feedback for Text-to-Image Generation
December 15, 2023
Auteurs: Youwei Liang, Junfeng He, Gang Li, Peizhao Li, Arseniy Klimovskiy, Nicholas Carolan, Jiao Sun, Jordi Pont-Tuset, Sarah Young, Feng Yang, Junjie Ke, Krishnamurthy Dj Dvijotham, Katie Collins, Yiwen Luo, Yang Li, Kai J Kohlhoff, Deepak Ramachandran, Vidhya Navalpakkam
cs.AI
Samenvatting
Recente tekst-naar-beeld (T2I) generatiemodellen zoals Stable Diffusion en Imagen hebben aanzienlijke vooruitgang geboekt in het genereren van hoogwaardige afbeeldingen op basis van tekstbeschrijvingen. Veel gegenereerde afbeeldingen lijden echter nog steeds aan problemen zoals artefacten/onwaarschijnlijkheid, verkeerde uitlijning met tekstbeschrijvingen en lage esthetische kwaliteit. Geïnspireerd door het succes van Reinforcement Learning met menselijke feedback (RLHF) voor grote taalmodellen, hebben eerdere werken door mensen verstrekte scores verzameld als feedback op gegenereerde afbeeldingen en een beloningsmodel getraind om de T2I-generatie te verbeteren. In dit artikel verrijken we het feedbacksignaal door (i) afbeeldingsregio's te markeren die onwaarschijnlijk zijn of niet overeenkomen met de tekst, en (ii) te annoteren welke woorden in de tekstprompt verkeerd worden weergegeven of ontbreken in de afbeelding. We verzamelen dergelijke uitgebreide menselijke feedback op 18K gegenereerde afbeeldingen en trainen een multimodale transformer om de uitgebreide feedback automatisch te voorspellen. We laten zien dat de voorspelde uitgebreide menselijke feedback kan worden benut om de beeldgeneratie te verbeteren, bijvoorbeeld door hoogwaardige trainingsgegevens te selecteren om de generatieve modellen te finetunen en te verbeteren, of door maskers te creëren met voorspelde heatmaps om de problematische regio's in te vullen. Opmerkelijk is dat de verbeteringen generaliseren naar modellen (Muse) die verder gaan dan die welke zijn gebruikt om de afbeeldingen te genereren waarop de menselijke feedbackgegevens zijn verzameld (Stable Diffusion-varianten).
English
Recent Text-to-Image (T2I) generation models such as Stable Diffusion and
Imagen have made significant progress in generating high-resolution images
based on text descriptions. However, many generated images still suffer from
issues such as artifacts/implausibility, misalignment with text descriptions,
and low aesthetic quality. Inspired by the success of Reinforcement Learning
with Human Feedback (RLHF) for large language models, prior works collected
human-provided scores as feedback on generated images and trained a reward
model to improve the T2I generation. In this paper, we enrich the feedback
signal by (i) marking image regions that are implausible or misaligned with the
text, and (ii) annotating which words in the text prompt are misrepresented or
missing on the image. We collect such rich human feedback on 18K generated
images and train a multimodal transformer to predict the rich feedback
automatically. We show that the predicted rich human feedback can be leveraged
to improve image generation, for example, by selecting high-quality training
data to finetune and improve the generative models, or by creating masks with
predicted heatmaps to inpaint the problematic regions. Notably, the
improvements generalize to models (Muse) beyond those used to generate the
images on which human feedback data were collected (Stable Diffusion variants).