ChatPaper.aiChatPaper

Commonsense-T2I Uitdaging: Kunnen Tekst-naar-Beeld Generatiemodellen Commonsense Begrijpen?

Commonsense-T2I Challenge: Can Text-to-Image Generation Models Understand Commonsense?

June 11, 2024
Auteurs: Xingyu Fu, Muyu He, Yujie Lu, William Yang Wang, Dan Roth
cs.AI

Samenvatting

We presenteren een nieuwe taak en benchmark voor het evalueren van het vermogen van tekst-naar-beeld (T2I) generatiemodellen om afbeeldingen te produceren die aansluiten bij het gezond verstand in het dagelijks leven, wat we Commonsense-T2I noemen. Gegeven twee tegenstrijdige tekstprompts die een identieke set actiewoorden bevatten met kleine verschillen, zoals "een gloeilamp zonder elektriciteit" versus "een gloeilamp met elektriciteit", evalueren we of T2I-modellen visueel gezond verstand kunnen toepassen, bijvoorbeeld door afbeeldingen te produceren die passen bij "de gloeilamp is uit" versus "de gloeilamp is aan". Commonsense-T2I biedt een tegenstrijdige uitdaging door gepaarde tekstprompts te leveren samen met verwachte uitkomsten. De dataset is zorgvuldig handmatig samengesteld door experts en voorzien van gedetailleerde labels, zoals het type gezond verstand en de waarschijnlijkheid van de verwachte uitkomsten, om het analyseren van modelgedrag te ondersteunen. We testen een verscheidenheid aan state-of-the-art (sota) T2I-modellen en vinden verrassend genoeg dat er nog steeds een grote kloof bestaat tussen beeldsynthese en foto's uit het echte leven—zelfs het DALL-E 3-model behaalde slechts 48,92% op Commonsense-T2I, en het Stable Diffusion XL-model behaalde slechts 24,92% nauwkeurigheid. Onze experimenten tonen aan dat GPT-verrijkte prompts deze uitdaging niet kunnen oplossen, en we voegen een gedetailleerde analyse toe over mogelijke redenen voor dit tekort. Ons doel is dat Commonsense-T2I dient als een hoogwaardige evaluatiebenchmark voor het controleren van gezond verstand in T2I, wat vooruitgang bevordert in het genereren van realistische afbeeldingen.
English
We present a novel task and benchmark for evaluating the ability of text-to-image(T2I) generation models to produce images that fit commonsense in real life, which we call Commonsense-T2I. Given two adversarial text prompts containing an identical set of action words with minor differences, such as "a lightbulb without electricity" v.s. "a lightbulb with electricity", we evaluate whether T2I models can conduct visual-commonsense reasoning, e.g. produce images that fit "the lightbulb is unlit" vs. "the lightbulb is lit" correspondingly. Commonsense-T2I presents an adversarial challenge, providing pairwise text prompts along with expected outputs. The dataset is carefully hand-curated by experts and annotated with fine-grained labels, such as commonsense type and likelihood of the expected outputs, to assist analyzing model behavior. We benchmark a variety of state-of-the-art (sota) T2I models and surprisingly find that, there is still a large gap between image synthesis and real life photos--even the DALL-E 3 model could only achieve 48.92% on Commonsense-T2I, and the stable diffusion XL model only achieves 24.92% accuracy. Our experiments show that GPT-enriched prompts cannot solve this challenge, and we include a detailed analysis about possible reasons for such deficiency. We aim for Commonsense-T2I to serve as a high-quality evaluation benchmark for T2I commonsense checking, fostering advancements in real life image generation.
PDF91February 7, 2026