ChatPaper.aiChatPaper

HallusionBench: ¿Ves lo que piensas? ¿O piensas lo que ves? Un punto de referencia para el razonamiento en contexto de imágenes que desafía a GPT-4V(isión), LLaVA-1.5 y otros modelos multimodales.

HallusionBench: You See What You Think? Or You Think What You See? An Image-Context Reasoning Benchmark Challenging for GPT-4V(ision), LLaVA-1.5, and Other Multi-modality Models

October 23, 2023
Autores: Fuxiao Liu, Tianrui Guan, Zongxia Li, Lichang Chen, Yaser Yacoob, Dinesh Manocha, Tianyi Zhou
cs.AI

Resumen

Los grandes modelos de lenguaje (LLMs, por sus siglas en inglés), una vez alineados con modelos de visión e integrados en modelos de lenguaje-visión (VLMs), pueden aportar mejoras impresionantes en tareas de razonamiento sobre imágenes. Esto ha sido demostrado por los recientemente lanzados GPT-4V(ison), LLaVA-1.5, entre otros. Sin embargo, el fuerte sesgo lingüístico presente en estos VLMs de última generación puede ser un arma de doble filo: pueden ignorar el contexto de la imagen y basarse únicamente en el sesgo lingüístico (incluso cuando es contradictorio) para realizar el razonamiento. Por otro lado, los módulos de visión en los VLMs son más débiles que los LLMs y pueden generar representaciones visuales engañosas, que luego son traducidas en errores confiados por los LLMs. Para estudiar estos dos tipos de errores en los VLMs, es decir, la alucinación lingüística y la ilusión visual, hemos creado HallusionBench, un benchmark de razonamiento en contexto de imágenes que sigue siendo un desafío incluso para GPT-4V y LLaVA-1.5. Ofrecemos un análisis detallado de ejemplos en HallusionBench, lo cual arroja nuevas perspectivas sobre las ilusiones o alucinaciones de los VLMs y cómo mejorarlos en el futuro. El benchmark y el código base serán publicados en https://github.com/tianyi-lab/HallusionBench.
English
Large language models (LLMs), after being aligned with vision models and integrated into vision-language models (VLMs), can bring impressive improvement in image reasoning tasks. This was shown by the recently released GPT-4V(ison), LLaVA-1.5, etc. However, the strong language prior in these SOTA LVLMs can be a double-edged sword: they may ignore the image context and solely rely on the (even contradictory) language prior for reasoning. In contrast, the vision modules in VLMs are weaker than LLMs and may result in misleading visual representations, which are then translated to confident mistakes by LLMs. To study these two types of VLM mistakes, i.e., language hallucination and visual illusion, we curated HallusionBench, an image-context reasoning benchmark that is still challenging to even GPT-4V and LLaVA-1.5. We provide a detailed analysis of examples in HallusionBench, which sheds novel insights on the illusion or hallucination of VLMs and how to improve them in the future. The benchmark and codebase will be released at https://github.com/tianyi-lab/HallusionBench.
PDF276December 15, 2024