ChatPaper.aiChatPaper

ConflictBank : un banc d'essai pour évaluer l'influence des conflits de connaissances dans les LLM

ConflictBank: A Benchmark for Evaluating the Influence of Knowledge Conflicts in LLM

August 22, 2024
Auteurs: Zhaochen Su, Jun Zhang, Xiaoye Qu, Tong Zhu, Yanshu Li, Jiashuo Sun, Juntao Li, Min Zhang, Yu Cheng
cs.AI

Résumé

Les grands modèles de langage (LLM) ont réalisé des avancées impressionnantes dans de nombreuses disciplines, cependant la question critique des conflits de connaissances, une source majeure d'hallucinations, a rarement été étudiée. Seules quelques recherches ont exploré les conflits entre la connaissance inhérente des LLM et la connaissance contextuelle récupérée. Cependant, une évaluation approfondie des conflits de connaissances dans les LLM fait encore défaut. Motivés par cette lacune de recherche, nous présentons ConflictBank, le premier banc d'essai complet développé pour évaluer systématiquement les conflits de connaissances sous trois aspects : (i) les conflits rencontrés dans les connaissances récupérées, (ii) les conflits au sein des connaissances encodées des modèles, et (iii) l'interaction entre ces formes de conflit. Notre enquête explore quatre familles de modèles et douze instances de LLM, analysant méticuleusement les conflits découlant de la désinformation, des divergences temporelles et sémantiques. Sur la base de notre nouveau cadre de construction proposé, nous créons 7 453 853 paires revendication-preuve et 553 117 paires de questions-réponses. Nous présentons de nombreuses découvertes sur l'échelle des modèles, les causes de conflit et les types de conflit. Nous espérons que notre banc d'essai ConflictBank aidera la communauté à mieux comprendre le comportement des modèles en cas de conflits et à développer des LLM plus fiables.
English
Large language models (LLMs) have achieved impressive advancements across numerous disciplines, yet the critical issue of knowledge conflicts, a major source of hallucinations, has rarely been studied. Only a few research explored the conflicts between the inherent knowledge of LLMs and the retrieved contextual knowledge. However, a thorough assessment of knowledge conflict in LLMs is still missing. Motivated by this research gap, we present ConflictBank, the first comprehensive benchmark developed to systematically evaluate knowledge conflicts from three aspects: (i) conflicts encountered in retrieved knowledge, (ii) conflicts within the models' encoded knowledge, and (iii) the interplay between these conflict forms. Our investigation delves into four model families and twelve LLM instances, meticulously analyzing conflicts stemming from misinformation, temporal discrepancies, and semantic divergences. Based on our proposed novel construction framework, we create 7,453,853 claim-evidence pairs and 553,117 QA pairs. We present numerous findings on model scale, conflict causes, and conflict types. We hope our ConflictBank benchmark will help the community better understand model behavior in conflicts and develop more reliable LLMs.

Summary

AI-Generated Summary

PDF121November 16, 2024