ChatPaper.aiChatPaper

Woodpecker: Halluzinationskorrektur für multimodale Large Language Models

Woodpecker: Hallucination Correction for Multimodal Large Language Models

October 24, 2023
Autoren: Shukang Yin, Chaoyou Fu, Sirui Zhao, Tong Xu, Hao Wang, Dianbo Sui, Yunhang Shen, Ke Li, Xing Sun, Enhong Chen
cs.AI

Zusammenfassung

Halluzinationen sind ein großes Problem, das über den sich rasant entwickelnden Multimodalen Großen Sprachmodellen (MLLMs) schwebt. Dabei handelt es sich um das Phänomen, dass der generierte Text nicht mit dem Bildinhalt übereinstimmt. Um Halluzinationen zu reduzieren, greifen bestehende Studien hauptsächlich auf eine Instruktions-Feinabstimmung zurück, die eine erneute Trainierung der Modelle mit spezifischen Daten erfordert. In diesem Artikel schlagen wir einen anderen Weg ein und stellen eine trainingsfreie Methode namens Woodpecker vor. Wie ein Specht, der Bäume heilt, sucht und korrigiert Woodpecker Halluzinationen im generierten Text. Konkret besteht Woodpecker aus fünf Phasen: Extraktion von Schlüsselkonzepten, Formulierung von Fragen, Validierung von visuellem Wissen, Generierung von visuellen Behauptungen und Korrektur von Halluzinationen. Als nachträgliche Lösung implementiert, kann Woodpecker problemlos verschiedene MLLMs unterstützen, während es durch den Zugriff auf Zwischenergebnisse der fünf Phasen interpretierbar bleibt. Wir bewerten Woodpecker sowohl quantitativ als auch qualitativ und zeigen das enorme Potenzial dieses neuen Paradigmas. Auf dem POPE-Benchmark erzielt unsere Methode eine Verbesserung der Genauigkeit um 30,66 % bzw. 24,33 % gegenüber dem Baseline-Modell MiniGPT-4/mPLUG-Owl. Der Quellcode ist unter https://github.com/BradyFU/Woodpecker veröffentlicht.
English
Hallucination is a big shadow hanging over the rapidly evolving Multimodal Large Language Models (MLLMs), referring to the phenomenon that the generated text is inconsistent with the image content. In order to mitigate hallucinations, existing studies mainly resort to an instruction-tuning manner that requires retraining the models with specific data. In this paper, we pave a different way, introducing a training-free method named Woodpecker. Like a woodpecker heals trees, it picks out and corrects hallucinations from the generated text. Concretely, Woodpecker consists of five stages: key concept extraction, question formulation, visual knowledge validation, visual claim generation, and hallucination correction. Implemented in a post-remedy manner, Woodpecker can easily serve different MLLMs, while being interpretable by accessing intermediate outputs of the five stages. We evaluate Woodpecker both quantitatively and qualitatively and show the huge potential of this new paradigm. On the POPE benchmark, our method obtains a 30.66%/24.33% improvement in accuracy over the baseline MiniGPT-4/mPLUG-Owl. The source code is released at https://github.com/BradyFU/Woodpecker.
PDF171December 15, 2024