SelfEval: Sfruttare la natura discriminativa dei modelli generativi per la valutazione
SelfEval: Leveraging the discriminative nature of generative models for evaluation
November 17, 2023
Autori: Sai Saketh Rambhatla, Ishan Misra
cs.AI
Abstract
In questo lavoro, dimostriamo che i modelli generativi testo-immagine possono essere "invertiti" per valutare le proprie capacità di comprensione testo-immagine in modo completamente automatizzato.
Il nostro metodo, chiamato SelfEval, utilizza il modello generativo per calcolare la probabilità di immagini reali dati i prompt testuali, rendendo il modello generativo direttamente applicabile a compiti discriminativi.
Utilizzando SelfEval, riadattiamo dataset standard creati per valutare modelli discriminativi multimodali testo-immagine per valutare i modelli generativi in modo granulare: analizzando le loro prestazioni nel legame di attributi, riconoscimento dei colori, conteggio, riconoscimento delle forme e comprensione spaziale.
Per quanto ne sappiamo, SelfEval è la prima metrica automatizzata a mostrare un elevato grado di accordo con le valutazioni umane di riferimento (gold-standard) per misurare la fedeltà al testo su più modelli e benchmark.
Inoltre, SelfEval ci consente di valutare i modelli generativi su compiti complessi come il punteggio immagine di Winoground, dove dimostrano prestazioni competitive rispetto ai modelli discriminativi.
Mostriamo anche gravi limiti delle metriche automatizzate standard, come il CLIP-score, nel misurare la fedeltà al testo su benchmark come DrawBench, e come SelfEval superi questi problemi.
Speriamo che SelfEval consenta una valutazione automatizzata facile e affidabile per i modelli di diffusione.
English
In this work, we show that text-to-image generative models can be 'inverted'
to assess their own text-image understanding capabilities in a completely
automated manner.
Our method, called SelfEval, uses the generative model to compute the
likelihood of real images given text prompts, making the generative model
directly applicable to discriminative tasks.
Using SelfEval, we repurpose standard datasets created for evaluating
multimodal text-image discriminative models to evaluate generative models in a
fine-grained manner: assessing their performance on attribute binding, color
recognition, counting, shape recognition, spatial understanding.
To the best of our knowledge SelfEval is the first automated metric to show a
high degree of agreement for measuring text-faithfulness with the gold-standard
human evaluations across multiple models and benchmarks.
Moreover, SelfEval enables us to evaluate generative models on challenging
tasks such as Winoground image-score where they demonstrate competitive
performance to discriminative models.
We also show severe drawbacks of standard automated metrics such as
CLIP-score to measure text faithfulness on benchmarks such as DrawBench, and
how SelfEval sidesteps these issues.
We hope SelfEval enables easy and reliable automated evaluation for diffusion
models.