ConflictBank: Ein Benchmark zur Bewertung des Einflusses von Wissenskonflikten in LLM.
ConflictBank: A Benchmark for Evaluating the Influence of Knowledge Conflicts in LLM
August 22, 2024
Autoren: Zhaochen Su, Jun Zhang, Xiaoye Qu, Tong Zhu, Yanshu Li, Jiashuo Sun, Juntao Li, Min Zhang, Yu Cheng
cs.AI
Zusammenfassung
Große Sprachmodelle (LLMs) haben beeindruckende Fortschritte in zahlreichen Disziplinen erzielt, doch das kritische Thema von Wissenskonflikten, einer Hauptursache für Halluzinationen, wurde selten untersucht. Nur wenige Studien haben die Konflikte zwischen dem inhärenten Wissen von LLMs und dem abgerufenen kontextuellen Wissen erforscht. Eine gründliche Bewertung von Wissenskonflikten in LLMs fehlt jedoch noch. Angespornt durch diese Forschungslücke präsentieren wir ConflictBank, den ersten umfassenden Benchmark, der entwickelt wurde, um Wissenskonflikte systematisch aus drei Aspekten zu bewerten: (i) Konflikte, die im abgerufenen Wissen auftreten, (ii) Konflikte innerhalb des kodierten Wissens der Modelle und (iii) das Zusammenspiel zwischen diesen Konfliktformen. Unsere Untersuchung geht auf vier Modellfamilien und zwölf LLM-Instanzen ein, indem sie Konflikte aufgrund von Fehlinformationen, zeitlichen Diskrepanzen und semantischen Unterschieden akribisch analysiert. Basierend auf unserem vorgeschlagenen neuartigen Konstruktionsrahmen erstellen wir 7.453.853 Behauptungs-Belege-Paare und 553.117 QA-Paare. Wir präsentieren zahlreiche Erkenntnisse zu Modellgröße, Konfliktursachen und Konflikttypen. Wir hoffen, dass unser ConflictBank-Benchmark der Gemeinschaft helfen wird, das Verhalten von Modellen bei Konflikten besser zu verstehen und zuverlässigere LLMs zu entwickeln.
English
Large language models (LLMs) have achieved impressive advancements across
numerous disciplines, yet the critical issue of knowledge conflicts, a major
source of hallucinations, has rarely been studied. Only a few research explored
the conflicts between the inherent knowledge of LLMs and the retrieved
contextual knowledge. However, a thorough assessment of knowledge conflict in
LLMs is still missing. Motivated by this research gap, we present ConflictBank,
the first comprehensive benchmark developed to systematically evaluate
knowledge conflicts from three aspects: (i) conflicts encountered in retrieved
knowledge, (ii) conflicts within the models' encoded knowledge, and (iii) the
interplay between these conflict forms. Our investigation delves into four
model families and twelve LLM instances, meticulously analyzing conflicts
stemming from misinformation, temporal discrepancies, and semantic divergences.
Based on our proposed novel construction framework, we create 7,453,853
claim-evidence pairs and 553,117 QA pairs. We present numerous findings on
model scale, conflict causes, and conflict types. We hope our ConflictBank
benchmark will help the community better understand model behavior in conflicts
and develop more reliable LLMs.Summary
AI-Generated Summary