Será que a Edição de Conhecimento Realmente Pode Corrigir Alucinações?
Can Knowledge Editing Really Correct Hallucinations?
October 21, 2024
Autores: Baixiang Huang, Canyu Chen, Xiongxiao Xu, Ali Payani, Kai Shu
cs.AI
Resumo
Os Modelos de Linguagem de Grande Escala (LLMs) sofrem de alucinações, referindo-se às informações não factuais no conteúdo gerado, apesar de suas capacidades superiores em diversas tarefas. Enquanto isso, a edição de conhecimento foi desenvolvida como um novo paradigma popular para corrigir o conhecimento factual errôneo codificado nos LLMs com a vantagem de evitar o retrabalho do zero. No entanto, um problema comum dos conjuntos de dados de avaliação existentes para edição de conhecimento é que eles não garantem que os LLMs realmente gerem respostas alucinadas às perguntas de avaliação antes da edição. Quando os LLMs são avaliados em tais conjuntos de dados após serem editados por diferentes técnicas, é difícil adotar diretamente o desempenho para avaliar a eficácia de diferentes métodos de edição de conhecimento na correção de alucinações. Assim, a questão fundamental permanece insuficientemente validada: A edição de conhecimento realmente pode corrigir alucinações nos LLMs? Propusemos o HalluEditBench para avaliar de forma abrangente os métodos de edição de conhecimento na correção de alucinações do mundo real. Primeiramente, construímos rigorosamente um extenso conjunto de dados de alucinações com 9 domínios, 26 tópicos e mais de 6.000 alucinações. Em seguida, avaliamos o desempenho dos métodos de edição de conhecimento de forma holística em cinco dimensões, incluindo Eficácia, Generalização, Portabilidade, Localidade e Robustez. Através do HalluEditBench, fornecemos novas perspectivas sobre os potenciais e limitações de diferentes métodos de edição de conhecimento na correção de alucinações, o que poderia inspirar melhorias futuras e facilitar o progresso no campo da edição de conhecimento.
English
Large Language Models (LLMs) suffer from hallucinations, referring to the
non-factual information in generated content, despite their superior capacities
across tasks. Meanwhile, knowledge editing has been developed as a new popular
paradigm to correct the erroneous factual knowledge encoded in LLMs with the
advantage of avoiding retraining from scratch. However, one common issue of
existing evaluation datasets for knowledge editing is that they do not ensure
LLMs actually generate hallucinated answers to the evaluation questions before
editing. When LLMs are evaluated on such datasets after being edited by
different techniques, it is hard to directly adopt the performance to assess
the effectiveness of different knowledge editing methods in correcting
hallucinations. Thus, the fundamental question remains insufficiently
validated: Can knowledge editing really correct hallucinations in LLMs? We
proposed HalluEditBench to holistically benchmark knowledge editing methods in
correcting real-world hallucinations. First, we rigorously construct a massive
hallucination dataset with 9 domains, 26 topics and more than 6,000
hallucinations. Then, we assess the performance of knowledge editing methods in
a holistic way on five dimensions including Efficacy, Generalization,
Portability, Locality, and Robustness. Through HalluEditBench, we have provided
new insights into the potentials and limitations of different knowledge editing
methods in correcting hallucinations, which could inspire future improvements
and facilitate the progress in the field of knowledge editing.Summary
AI-Generated Summary