SelfEval: Aprovechando la naturaleza discriminativa de los modelos generativos para la evaluación
SelfEval: Leveraging the discriminative nature of generative models for evaluation
November 17, 2023
Autores: Sai Saketh Rambhatla, Ishan Misra
cs.AI
Resumen
En este trabajo, demostramos que los modelos generativos de texto a imagen pueden "invertirse" para evaluar sus propias capacidades de comprensión texto-imagen de manera completamente automatizada. Nuestro método, llamado SelfEval, utiliza el modelo generativo para calcular la probabilidad de imágenes reales dadas indicaciones de texto, haciendo que el modelo generativo sea directamente aplicable a tareas discriminativas. Utilizando SelfEval, reutilizamos conjuntos de datos estándar creados para evaluar modelos discriminativos multimodales de texto-imagen para evaluar modelos generativos de manera detallada: evaluando su rendimiento en la vinculación de atributos, reconocimiento de colores, conteo, reconocimiento de formas y comprensión espacial. Hasta donde sabemos, SelfEval es la primera métrica automatizada que muestra un alto grado de concordancia para medir la fidelidad al texto con las evaluaciones humanas de referencia en múltiples modelos y benchmarks. Además, SelfEval nos permite evaluar modelos generativos en tareas desafiantes como la puntuación de imágenes en Winoground, donde demuestran un rendimiento competitivo frente a modelos discriminativos. También mostramos graves inconvenientes de las métricas automatizadas estándar, como el CLIP-score, para medir la fidelidad al texto en benchmarks como DrawBench, y cómo SelfEval evita estos problemas. Esperamos que SelfEval permita una evaluación automatizada fácil y confiable para modelos de difusión.
English
In this work, we show that text-to-image generative models can be 'inverted'
to assess their own text-image understanding capabilities in a completely
automated manner.
Our method, called SelfEval, uses the generative model to compute the
likelihood of real images given text prompts, making the generative model
directly applicable to discriminative tasks.
Using SelfEval, we repurpose standard datasets created for evaluating
multimodal text-image discriminative models to evaluate generative models in a
fine-grained manner: assessing their performance on attribute binding, color
recognition, counting, shape recognition, spatial understanding.
To the best of our knowledge SelfEval is the first automated metric to show a
high degree of agreement for measuring text-faithfulness with the gold-standard
human evaluations across multiple models and benchmarks.
Moreover, SelfEval enables us to evaluate generative models on challenging
tasks such as Winoground image-score where they demonstrate competitive
performance to discriminative models.
We also show severe drawbacks of standard automated metrics such as
CLIP-score to measure text faithfulness on benchmarks such as DrawBench, and
how SelfEval sidesteps these issues.
We hope SelfEval enables easy and reliable automated evaluation for diffusion
models.