ChatPaper.aiChatPaper

SelfEval: Nutzung der diskriminativen Eigenschaft generativer Modelle zur Evaluation

SelfEval: Leveraging the discriminative nature of generative models for evaluation

November 17, 2023
Autoren: Sai Saketh Rambhatla, Ishan Misra
cs.AI

Zusammenfassung

In dieser Arbeit zeigen wir, dass Text-zu-Bild-Generierungsmodelle „invertiert“ werden können, um ihre eigenen Text-Bild-Verständnisfähigkeiten auf vollständig automatisierte Weise zu bewerten. Unsere Methode, genannt SelfEval, nutzt das Generierungsmodell, um die Wahrscheinlichkeit realer Bilder bei gegebenen Textprompts zu berechnen, wodurch das Generierungsmodell direkt für diskriminative Aufgaben anwendbar wird. Mit SelfEval verwenden wir Standarddatensätze, die ursprünglich zur Bewertung multimodaler Text-Bild-Diskriminierungsmodelle erstellt wurden, um Generierungsmodelle auf feingranulare Weise zu evaluieren: Wir bewerten ihre Leistung in Bezug auf Attributbindung, Farberkennung, Zählen, Formerkennung und räumliches Verständnis. Nach unserem besten Wissen ist SelfEval die erste automatisierte Metrik, die eine hohe Übereinstimmung mit den Goldstandard-Bewertungen durch Menschen bei der Messung der Texttreue über mehrere Modelle und Benchmarks hinweg zeigt. Darüber hinaus ermöglicht uns SelfEval, Generierungsmodelle bei anspruchsvollen Aufgaben wie dem Winoground-Bild-Score zu bewerten, wo sie eine wettbewerbsfähige Leistung im Vergleich zu diskriminativen Modellen demonstrieren. Wir zeigen auch gravierende Nachteile standardmäßiger automatisierter Metriken wie dem CLIP-Score bei der Messung der Texttreue auf Benchmarks wie DrawBench und wie SelfEval diese Probleme umgeht. Wir hoffen, dass SelfEval eine einfache und zuverlässige automatisierte Bewertung für Diffusionsmodelle ermöglicht.
English
In this work, we show that text-to-image generative models can be 'inverted' to assess their own text-image understanding capabilities in a completely automated manner. Our method, called SelfEval, uses the generative model to compute the likelihood of real images given text prompts, making the generative model directly applicable to discriminative tasks. Using SelfEval, we repurpose standard datasets created for evaluating multimodal text-image discriminative models to evaluate generative models in a fine-grained manner: assessing their performance on attribute binding, color recognition, counting, shape recognition, spatial understanding. To the best of our knowledge SelfEval is the first automated metric to show a high degree of agreement for measuring text-faithfulness with the gold-standard human evaluations across multiple models and benchmarks. Moreover, SelfEval enables us to evaluate generative models on challenging tasks such as Winoground image-score where they demonstrate competitive performance to discriminative models. We also show severe drawbacks of standard automated metrics such as CLIP-score to measure text faithfulness on benchmarks such as DrawBench, and how SelfEval sidesteps these issues. We hope SelfEval enables easy and reliable automated evaluation for diffusion models.
PDF170December 15, 2024