ChatPaper.aiChatPaper

HallusionBench: Você vê o que pensa? Ou pensa o que vê? Um benchmark de raciocínio em contexto de imagem desafiador para GPT-4V(ision), LLaVA-1.5 e outros modelos de multimodalidade.

HallusionBench: You See What You Think? Or You Think What You See? An Image-Context Reasoning Benchmark Challenging for GPT-4V(ision), LLaVA-1.5, and Other Multi-modality Models

October 23, 2023
Autores: Fuxiao Liu, Tianrui Guan, Zongxia Li, Lichang Chen, Yaser Yacoob, Dinesh Manocha, Tianyi Zhou
cs.AI

Resumo

Grandes modelos de linguagem (LLMs), após serem alinhados com modelos de visão e integrados em modelos visão-linguagem (VLMs), podem trazer melhorias impressionantes em tarefas de raciocínio sobre imagens. Isso foi demonstrado pelo recentemente lançado GPT-4V(ison), LLaVA-1.5, entre outros. No entanto, o forte viés linguístico presente nesses VLMs de última geração pode ser uma faca de dois gumes: eles podem ignorar o contexto da imagem e depender exclusivamente do viés linguístico (mesmo que contraditório) para o raciocínio. Em contraste, os módulos de visão nos VLMs são mais fracos que os LLMs e podem resultar em representações visuais enganosas, que são então traduzidas em erros confiantes pelos LLMs. Para estudar esses dois tipos de erros dos VLMs, ou seja, alucinação linguística e ilusão visual, criamos o HallusionBench, um benchmark de raciocínio contextualizado em imagens que ainda é desafiador até mesmo para GPT-4V e LLaVA-1.5. Fornecemos uma análise detalhada de exemplos no HallusionBench, que traz novos insights sobre a ilusão ou alucinação dos VLMs e como melhorá-los no futuro. O benchmark e o código serão disponibilizados em https://github.com/tianyi-lab/HallusionBench.
English
Large language models (LLMs), after being aligned with vision models and integrated into vision-language models (VLMs), can bring impressive improvement in image reasoning tasks. This was shown by the recently released GPT-4V(ison), LLaVA-1.5, etc. However, the strong language prior in these SOTA LVLMs can be a double-edged sword: they may ignore the image context and solely rely on the (even contradictory) language prior for reasoning. In contrast, the vision modules in VLMs are weaker than LLMs and may result in misleading visual representations, which are then translated to confident mistakes by LLMs. To study these two types of VLM mistakes, i.e., language hallucination and visual illusion, we curated HallusionBench, an image-context reasoning benchmark that is still challenging to even GPT-4V and LLaVA-1.5. We provide a detailed analysis of examples in HallusionBench, which sheds novel insights on the illusion or hallucination of VLMs and how to improve them in the future. The benchmark and codebase will be released at https://github.com/tianyi-lab/HallusionBench.
PDF276December 15, 2024