HallusionBench: Вы видите то, что думаете? Или думаете то, что видите? Бенчмарк для анализа изображений и контекста, представляющий сложность для GPT-4V(ision), LLaVA-1.5 и других мультимодальных моделей.
HallusionBench: You See What You Think? Or You Think What You See? An Image-Context Reasoning Benchmark Challenging for GPT-4V(ision), LLaVA-1.5, and Other Multi-modality Models
October 23, 2023
Авторы: Fuxiao Liu, Tianrui Guan, Zongxia Li, Lichang Chen, Yaser Yacoob, Dinesh Manocha, Tianyi Zhou
cs.AI
Аннотация
Крупные языковые модели (LLM), будучи согласованными с моделями компьютерного зрения и интегрированными в модели обработки визуально-языковых данных (VLM), могут значительно улучшить выполнение задач, связанных с анализом изображений. Это продемонстрировали недавно выпущенные GPT-4V(ison), LLaVA-1.5 и другие. Однако сильная языковая предубеждённость в этих современных LVLM может быть обоюдоострым мечом: они могут игнорировать контекст изображения и полагаться исключительно на (даже противоречивые) языковые предпосылки для рассуждений. В то же время модули компьютерного зрения в VLM слабее, чем LLM, что может приводить к ошибочным визуальным представлениям, которые затем преобразуются LLM в уверенные ошибки. Для изучения этих двух типов ошибок VLM, а именно языковых галлюцинаций и визуальных иллюзий, мы создали HallusionBench — эталонный тест для анализа контекста изображений, который остаётся сложным даже для GPT-4V и LLaVA-1.5. Мы предоставляем детальный анализ примеров из HallusionBench, который проливает новый свет на иллюзии и галлюцинации VLM и предлагает пути их улучшения в будущем. Эталонный тест и кодовая база будут опубликованы на https://github.com/tianyi-lab/HallusionBench.
English
Large language models (LLMs), after being aligned with vision models and
integrated into vision-language models (VLMs), can bring impressive improvement
in image reasoning tasks. This was shown by the recently released GPT-4V(ison),
LLaVA-1.5, etc. However, the strong language prior in these SOTA LVLMs can be a
double-edged sword: they may ignore the image context and solely rely on the
(even contradictory) language prior for reasoning. In contrast, the vision
modules in VLMs are weaker than LLMs and may result in misleading visual
representations, which are then translated to confident mistakes by LLMs. To
study these two types of VLM mistakes, i.e., language hallucination and visual
illusion, we curated HallusionBench, an image-context reasoning benchmark that
is still challenging to even GPT-4V and LLaVA-1.5. We provide a detailed
analysis of examples in HallusionBench, which sheds novel insights on the
illusion or hallucination of VLMs and how to improve them in the future. The
benchmark and codebase will be released at
https://github.com/tianyi-lab/HallusionBench.