ChatPaper.aiChatPaper

SelfEval: Aproveitando a natureza discriminativa de modelos generativos para avaliação

SelfEval: Leveraging the discriminative nature of generative models for evaluation

November 17, 2023
Autores: Sai Saketh Rambhatla, Ishan Misra
cs.AI

Resumo

Neste trabalho, demonstramos que modelos generativos de texto para imagem podem ser "invertidos" para avaliar suas próprias capacidades de compreensão entre texto e imagem de maneira completamente automatizada. Nosso método, chamado SelfEval, utiliza o modelo generativo para calcular a probabilidade de imagens reais dadas prompts de texto, tornando o modelo generativo diretamente aplicável a tarefas discriminativas. Usando o SelfEval, reutilizamos conjuntos de dados padrão criados para avaliar modelos discriminativos multimodais de texto e imagem para avaliar modelos generativos de maneira refinada: medindo seu desempenho em tarefas como vinculação de atributos, reconhecimento de cores, contagem, reconhecimento de formas e compreensão espacial. Até onde sabemos, o SelfEval é a primeira métrica automatizada a mostrar um alto grau de concordância com avaliações humanas padrão-ouro para medir a fidelidade ao texto em múltiplos modelos e benchmarks. Além disso, o SelfEval nos permite avaliar modelos generativos em tarefas desafiadoras, como a pontuação de imagens no Winoground, onde eles demonstram desempenho competitivo em relação a modelos discriminativos. Também mostramos sérias limitações de métricas automatizadas padrão, como o CLIP-score, para medir a fidelidade ao texto em benchmarks como o DrawBench, e como o SelfEval contorna esses problemas. Esperamos que o SelfEval permita uma avaliação automatizada fácil e confiável para modelos de difusão.
English
In this work, we show that text-to-image generative models can be 'inverted' to assess their own text-image understanding capabilities in a completely automated manner. Our method, called SelfEval, uses the generative model to compute the likelihood of real images given text prompts, making the generative model directly applicable to discriminative tasks. Using SelfEval, we repurpose standard datasets created for evaluating multimodal text-image discriminative models to evaluate generative models in a fine-grained manner: assessing their performance on attribute binding, color recognition, counting, shape recognition, spatial understanding. To the best of our knowledge SelfEval is the first automated metric to show a high degree of agreement for measuring text-faithfulness with the gold-standard human evaluations across multiple models and benchmarks. Moreover, SelfEval enables us to evaluate generative models on challenging tasks such as Winoground image-score where they demonstrate competitive performance to discriminative models. We also show severe drawbacks of standard automated metrics such as CLIP-score to measure text faithfulness on benchmarks such as DrawBench, and how SelfEval sidesteps these issues. We hope SelfEval enables easy and reliable automated evaluation for diffusion models.
PDF170December 15, 2024