ChatPaper.aiChatPaper

HallusionBench: Zie je wat je denkt? Of denk je wat je ziet? Een benchmark voor beeld-context redeneren die uitdagend is voor GPT-4V(ision), LLaVA-1.5 en andere multimodale modellen.

HallusionBench: You See What You Think? Or You Think What You See? An Image-Context Reasoning Benchmark Challenging for GPT-4V(ision), LLaVA-1.5, and Other Multi-modality Models

October 23, 2023
Auteurs: Fuxiao Liu, Tianrui Guan, Zongxia Li, Lichang Chen, Yaser Yacoob, Dinesh Manocha, Tianyi Zhou
cs.AI

Samenvatting

Grote taalmodellen (LLMs), na afstemming met visuele modellen en integratie in visueel-taalmodelen (VLMs), kunnen indrukwekkende verbeteringen brengen in beeldredeneertaken. Dit werd aangetoond door de recent uitgebrachte GPT-4V(ison), LLaVA-1.5, enzovoort. Echter, het sterke taalprior in deze state-of-the-art LVLMs kan een tweesnijdend zwaard zijn: ze kunnen de beeldcontext negeren en uitsluitend vertrouwen op het (zelfs tegenstrijdige) taalprior voor redenering. Daarentegen zijn de visuele modules in VLMs zwakker dan LLMs en kunnen ze leiden tot misleidende visuele representaties, die vervolgens door LLMs vertaald worden naar zelfverzekerde fouten. Om deze twee soorten VLM-fouten te bestuderen, namelijk taalhallucinatie en visuele illusie, hebben we HallusionBench samengesteld, een benchmark voor beeldcontextredenering die zelfs voor GPT-4V en LLaVA-1.5 nog uitdagend is. We bieden een gedetailleerde analyse van voorbeelden in HallusionBench, wat nieuwe inzichten biedt in de illusie of hallucinatie van VLMs en hoe deze in de toekomst verbeterd kunnen worden. De benchmark en codebase zullen worden vrijgegeven op https://github.com/tianyi-lab/HallusionBench.
English
Large language models (LLMs), after being aligned with vision models and integrated into vision-language models (VLMs), can bring impressive improvement in image reasoning tasks. This was shown by the recently released GPT-4V(ison), LLaVA-1.5, etc. However, the strong language prior in these SOTA LVLMs can be a double-edged sword: they may ignore the image context and solely rely on the (even contradictory) language prior for reasoning. In contrast, the vision modules in VLMs are weaker than LLMs and may result in misleading visual representations, which are then translated to confident mistakes by LLMs. To study these two types of VLM mistakes, i.e., language hallucination and visual illusion, we curated HallusionBench, an image-context reasoning benchmark that is still challenging to even GPT-4V and LLaVA-1.5. We provide a detailed analysis of examples in HallusionBench, which sheds novel insights on the illusion or hallucination of VLMs and how to improve them in the future. The benchmark and codebase will be released at https://github.com/tianyi-lab/HallusionBench.
PDF276December 15, 2024