Commonsense-T2I-Herausforderung: Können Text-zu-Bild-Generierungsmodelle Common Sense verstehen?
Commonsense-T2I Challenge: Can Text-to-Image Generation Models Understand Commonsense?
June 11, 2024
papers.authors: Xingyu Fu, Muyu He, Yujie Lu, William Yang Wang, Dan Roth
cs.AI
papers.abstract
Wir präsentieren eine neue Aufgabe und Benchmark zur Bewertung der Fähigkeit von Text-zu-Bild (T2I)-Generationsmodellen, Bilder zu erzeugen, die dem gesunden Menschenverstand im wirklichen Leben entsprechen, die wir Commonsense-T2I nennen. Anhand von zwei gegnerischen Texteingaben, die einen identischen Satz von Handlungswörtern mit geringfügigen Unterschieden enthalten, wie z.B. "eine Glühbirne ohne Strom" vs. "eine Glühbirne mit Strom", bewerten wir, ob T2I-Modelle visuell-gesunden Menschenverstand anwenden können, z.B. Bilder erzeugen, die entsprechend "die Glühbirne ist nicht beleuchtet" vs. "die Glühbirne ist beleuchtet" passen. Commonsense-T2I stellt eine gegnerische Herausforderung dar, indem es paarweise Texteingaben zusammen mit erwarteten Ausgaben bereitstellt. Der Datensatz wird sorgfältig von Experten kuratiert und mit feingranulierten Labels, wie gesunder Menschenverstandstyp und Wahrscheinlichkeit der erwarteten Ausgaben, annotiert, um die Analyse des Modellverhaltens zu unterstützen. Wir bewerten eine Vielzahl von State-of-the-Art (SOTA) T2I-Modellen und stellen überraschenderweise fest, dass es immer noch eine große Kluft zwischen der Bildsynthese und echten Fotos gibt - selbst das DALL-E 3-Modell konnte nur 48,92% bei Commonsense-T2I erreichen, und das stabile Diffusion XL-Modell erreicht nur eine Genauigkeit von 24,92%. Unsere Experimente zeigen, dass GPT-angereicherte Eingaben diese Herausforderung nicht lösen können, und wir führen eine detaillierte Analyse über mögliche Gründe für eine solche Unzulänglichkeit durch. Wir streben an, dass Commonsense-T2I als Benchmark von hoher Qualität für die Überprüfung des gesunden Menschenverstands bei T2I dient und Fortschritte bei der Bildgenerierung im wirklichen Leben fördert.
English
We present a novel task and benchmark for evaluating the ability of
text-to-image(T2I) generation models to produce images that fit commonsense in
real life, which we call Commonsense-T2I. Given two adversarial text prompts
containing an identical set of action words with minor differences, such as "a
lightbulb without electricity" v.s. "a lightbulb with electricity", we evaluate
whether T2I models can conduct visual-commonsense reasoning, e.g. produce
images that fit "the lightbulb is unlit" vs. "the lightbulb is lit"
correspondingly. Commonsense-T2I presents an adversarial challenge, providing
pairwise text prompts along with expected outputs. The dataset is carefully
hand-curated by experts and annotated with fine-grained labels, such as
commonsense type and likelihood of the expected outputs, to assist analyzing
model behavior. We benchmark a variety of state-of-the-art (sota) T2I models
and surprisingly find that, there is still a large gap between image synthesis
and real life photos--even the DALL-E 3 model could only achieve 48.92% on
Commonsense-T2I, and the stable diffusion XL model only achieves 24.92%
accuracy. Our experiments show that GPT-enriched prompts cannot solve this
challenge, and we include a detailed analysis about possible reasons for such
deficiency. We aim for Commonsense-T2I to serve as a high-quality evaluation
benchmark for T2I commonsense checking, fostering advancements in real life
image generation.