ChatPaper.aiChatPaper

Woodpecker: Hallucinatiecorrectie voor Multimodale Grote Taalmodellen

Woodpecker: Hallucination Correction for Multimodal Large Language Models

October 24, 2023
Auteurs: Shukang Yin, Chaoyou Fu, Sirui Zhao, Tong Xu, Hao Wang, Dianbo Sui, Yunhang Shen, Ke Li, Xing Sun, Enhong Chen
cs.AI

Samenvatting

Hallucinatie is een grote schaduw die hangt boven de snel evoluerende Multimodale Grote Taalmodellen (MLLMs), verwijzend naar het fenomeen waarbij de gegenereerde tekst inconsistent is met de beeldinhoud. Om hallucinaties te verminderen, grijpen bestaande studies voornamelijk naar een instructie-afstemmingsmethode die het opnieuw trainen van de modellen met specifieke data vereist. In dit artikel slaan we een andere weg in en introduceren we een trainingsvrije methode genaamd Woodpecker. Net zoals een specht bomen geneest, haalt deze hallucinaties uit de gegenereerde tekst en corrigeert ze. Concreet bestaat Woodpecker uit vijf fasen: extractie van sleutelconcepten, vraagformulering, validatie van visuele kennis, generatie van visuele claims en correctie van hallucinaties. Geïmplementeerd in een post-remedy-manier, kan Woodpecker eenvoudig verschillende MLLMs bedienen, terwijl het interpreteerbaar blijft door toegang te bieden tot de tussenliggende uitvoer van de vijf fasen. We evalueren Woodpecker zowel kwantitatief als kwalitatief en tonen het enorme potentieel van dit nieuwe paradigma. Op de POPE-benchmark behaalt onze methode een verbetering van 30,66%/24,33% in nauwkeurigheid ten opzichte van de baseline MiniGPT-4/mPLUG-Owl. De broncode is vrijgegeven op https://github.com/BradyFU/Woodpecker.
English
Hallucination is a big shadow hanging over the rapidly evolving Multimodal Large Language Models (MLLMs), referring to the phenomenon that the generated text is inconsistent with the image content. In order to mitigate hallucinations, existing studies mainly resort to an instruction-tuning manner that requires retraining the models with specific data. In this paper, we pave a different way, introducing a training-free method named Woodpecker. Like a woodpecker heals trees, it picks out and corrects hallucinations from the generated text. Concretely, Woodpecker consists of five stages: key concept extraction, question formulation, visual knowledge validation, visual claim generation, and hallucination correction. Implemented in a post-remedy manner, Woodpecker can easily serve different MLLMs, while being interpretable by accessing intermediate outputs of the five stages. We evaluate Woodpecker both quantitatively and qualitatively and show the huge potential of this new paradigm. On the POPE benchmark, our method obtains a 30.66%/24.33% improvement in accuracy over the baseline MiniGPT-4/mPLUG-Owl. The source code is released at https://github.com/BradyFU/Woodpecker.
PDF171February 8, 2026