SelfEval: Использование дискриминативной природы генеративных моделей для оценки
SelfEval: Leveraging the discriminative nature of generative models for evaluation
November 17, 2023
Авторы: Sai Saketh Rambhatla, Ishan Misra
cs.AI
Аннотация
В данной работе мы демонстрируем, что генеративные модели "текст-изображение" могут быть "инвертированы" для автоматической оценки их собственных способностей к пониманию связи между текстом и изображением.
Наш метод, названный SelfEval, использует генеративную модель для вычисления правдоподобия реальных изображений при заданных текстовых запросах, что делает генеративную модель применимой напрямую к дискриминативным задачам.
С помощью SelfEval мы перепрофилируем стандартные наборы данных, созданные для оценки мультимодальных дискриминативных моделей "текст-изображение", чтобы детально оценить генеративные модели: их производительность в задачах связывания атрибутов, распознавания цветов, подсчёта объектов, распознавания форм и понимания пространственных отношений.
Насколько нам известно, SelfEval является первым автоматизированным метриком, который демонстрирует высокую степень согласованности с эталонными человеческими оценками в измерении соответствия текста и изображения для множества моделей и бенчмарков.
Кроме того, SelfEval позволяет оценивать генеративные модели на сложных задачах, таких как Winoground image-score, где они показывают конкурентоспособные результаты по сравнению с дискриминативными моделями.
Мы также выявляем серьёзные недостатки стандартных автоматизированных метрик, таких как CLIP-score, в измерении соответствия текста на бенчмарках вроде DrawBench, и показываем, как SelfEval обходит эти проблемы.
Мы надеемся, что SelfEval обеспечит простую и надёжную автоматизированную оценку для диффузионных моделей.
English
In this work, we show that text-to-image generative models can be 'inverted'
to assess their own text-image understanding capabilities in a completely
automated manner.
Our method, called SelfEval, uses the generative model to compute the
likelihood of real images given text prompts, making the generative model
directly applicable to discriminative tasks.
Using SelfEval, we repurpose standard datasets created for evaluating
multimodal text-image discriminative models to evaluate generative models in a
fine-grained manner: assessing their performance on attribute binding, color
recognition, counting, shape recognition, spatial understanding.
To the best of our knowledge SelfEval is the first automated metric to show a
high degree of agreement for measuring text-faithfulness with the gold-standard
human evaluations across multiple models and benchmarks.
Moreover, SelfEval enables us to evaluate generative models on challenging
tasks such as Winoground image-score where they demonstrate competitive
performance to discriminative models.
We also show severe drawbacks of standard automated metrics such as
CLIP-score to measure text faithfulness on benchmarks such as DrawBench, and
how SelfEval sidesteps these issues.
We hope SelfEval enables easy and reliable automated evaluation for diffusion
models.