ChatPaper.aiChatPaper

ConflictBank: Un Benchmark per Valutare l'Influenza dei Conflitti di Conoscenza nei Modelli Linguistici di Grande Dimensione

ConflictBank: A Benchmark for Evaluating the Influence of Knowledge Conflicts in LLM

August 22, 2024
Autori: Zhaochen Su, Jun Zhang, Xiaoye Qu, Tong Zhu, Yanshu Li, Jiashuo Sun, Juntao Li, Min Zhang, Yu Cheng
cs.AI

Abstract

I grandi modelli linguistici (LLM) hanno raggiunto progressi impressionanti in numerose discipline, tuttavia la questione cruciale dei conflitti di conoscenza, una delle principali fonti di allucinazioni, è stata raramente studiata. Solo poche ricerche hanno esplorato i conflitti tra la conoscenza intrinseca degli LLM e la conoscenza contestuale recuperata. Tuttavia, una valutazione approfondita dei conflitti di conoscenza negli LLM è ancora mancante. Motivati da questa lacuna di ricerca, presentiamo ConflictBank, il primo benchmark completo sviluppato per valutare sistematicamente i conflitti di conoscenza da tre aspetti: (i) i conflitti riscontrati nella conoscenza recuperata, (ii) i conflitti all'interno della conoscenza codificata nei modelli, e (iii) l'interazione tra queste forme di conflitto. La nostra indagine approfondisce quattro famiglie di modelli e dodici istanze di LLM, analizzando meticolosamente i conflitti derivanti da disinformazione, discrepanze temporali e divergenze semantiche. Basandoci sul nostro nuovo framework di costruzione, creiamo 7.453.853 coppie affermazione-evidenza e 553.117 coppie domanda-risposta. Presentiamo numerosi risultati sulla scala dei modelli, le cause dei conflitti e i tipi di conflitti. Speriamo che il nostro benchmark ConflictBank aiuti la comunità a comprendere meglio il comportamento dei modelli nei conflitti e a sviluppare LLM più affidabili.
English
Large language models (LLMs) have achieved impressive advancements across numerous disciplines, yet the critical issue of knowledge conflicts, a major source of hallucinations, has rarely been studied. Only a few research explored the conflicts between the inherent knowledge of LLMs and the retrieved contextual knowledge. However, a thorough assessment of knowledge conflict in LLMs is still missing. Motivated by this research gap, we present ConflictBank, the first comprehensive benchmark developed to systematically evaluate knowledge conflicts from three aspects: (i) conflicts encountered in retrieved knowledge, (ii) conflicts within the models' encoded knowledge, and (iii) the interplay between these conflict forms. Our investigation delves into four model families and twelve LLM instances, meticulously analyzing conflicts stemming from misinformation, temporal discrepancies, and semantic divergences. Based on our proposed novel construction framework, we create 7,453,853 claim-evidence pairs and 553,117 QA pairs. We present numerous findings on model scale, conflict causes, and conflict types. We hope our ConflictBank benchmark will help the community better understand model behavior in conflicts and develop more reliable LLMs.
PDF121November 16, 2024