ConflictBank: Een benchmark voor het evalueren van de invloed van kennisconflicten in LLM's
ConflictBank: A Benchmark for Evaluating the Influence of Knowledge Conflicts in LLM
August 22, 2024
Auteurs: Zhaochen Su, Jun Zhang, Xiaoye Qu, Tong Zhu, Yanshu Li, Jiashuo Sun, Juntao Li, Min Zhang, Yu Cheng
cs.AI
Samenvatting
Grote taalmodellen (LLMs) hebben indrukwekkende vooruitgang geboekt op tal van gebieden, maar het cruciale probleem van kennisconflicten, een belangrijke bron van hallucinaties, is zelden bestudeerd. Slechts enkele onderzoeken hebben de conflicten tussen de inherente kennis van LLMs en de opgehaalde contextuele kennis verkend. Een grondige evaluatie van kennisconflicten in LLMs ontbreekt echter nog steeds. Gemotiveerd door deze onderzoekskloof presenteren we ConflictBank, de eerste uitgebreide benchmark die is ontwikkeld om kennisconflicten systematisch te evalueren vanuit drie aspecten: (i) conflicten in opgehaalde kennis, (ii) conflicten binnen de gecodeerde kennis van de modellen, en (iii) de interactie tussen deze conflictvormen. Ons onderzoek verdiept zich in vier modelfamilies en twaalf LLM-instanties, waarbij conflicten die voortkomen uit misinformatie, temporele discrepanties en semantische verschillen zorgvuldig worden geanalyseerd. Op basis van ons voorgestelde nieuwe constructiekader creëren we 7.453.853 claim-bewijsparen en 553.117 vraag-antwoordparen. We presenteren talrijke bevindingen over modelschaal, conflictoorzaken en conflicttypen. We hopen dat onze ConflictBank-benchmark de gemeenschap zal helpen het modelgedrag bij conflicten beter te begrijpen en betrouwbaardere LLMs te ontwikkelen.
English
Large language models (LLMs) have achieved impressive advancements across
numerous disciplines, yet the critical issue of knowledge conflicts, a major
source of hallucinations, has rarely been studied. Only a few research explored
the conflicts between the inherent knowledge of LLMs and the retrieved
contextual knowledge. However, a thorough assessment of knowledge conflict in
LLMs is still missing. Motivated by this research gap, we present ConflictBank,
the first comprehensive benchmark developed to systematically evaluate
knowledge conflicts from three aspects: (i) conflicts encountered in retrieved
knowledge, (ii) conflicts within the models' encoded knowledge, and (iii) the
interplay between these conflict forms. Our investigation delves into four
model families and twelve LLM instances, meticulously analyzing conflicts
stemming from misinformation, temporal discrepancies, and semantic divergences.
Based on our proposed novel construction framework, we create 7,453,853
claim-evidence pairs and 553,117 QA pairs. We present numerous findings on
model scale, conflict causes, and conflict types. We hope our ConflictBank
benchmark will help the community better understand model behavior in conflicts
and develop more reliable LLMs.Summary
AI-Generated Summary