ChatPaper.aiChatPaper

チェーン・オブ・ベリフィケーションは大規模言語モデルの幻覚を軽減する

Chain-of-Verification Reduces Hallucination in Large Language Models

September 20, 2023
著者: Shehzaad Dhuliawala, Mojtaba Komeili, Jing Xu, Roberta Raileanu, Xian Li, Asli Celikyilmaz, Jason Weston
cs.AI

要旨

妥当ではあるが誤った事実情報を生成する現象、いわゆる「ハルシネーション」は、大規模言語モデルにおける未解決の問題である。本研究では、言語モデルが自身の回答を熟考し、誤りを修正する能力について検討する。我々は「検証の連鎖(Chain-of-Verification: CoVe)」手法を開発した。この手法では、モデルはまず(i)初期回答を草案し、(ii)その草案を事実確認するための検証質問を計画し、(iii)他の回答に影響されないよう独立してそれらの質問に回答し、(iv)最終的な検証済み回答を生成する。実験において、CoVeがWikidataからのリスト形式の質問、閉じた書籍形式のMultiSpanQA、長文生成など様々なタスクにおいてハルシネーションを減少させることを示す。
English
Generation of plausible yet incorrect factual information, termed hallucination, is an unsolved issue in large language models. We study the ability of language models to deliberate on the responses they give in order to correct their mistakes. We develop the Chain-of-Verification (CoVe) method whereby the model first (i) drafts an initial response; then (ii) plans verification questions to fact-check its draft; (iii) answers those questions independently so the answers are not biased by other responses; and (iv) generates its final verified response. In experiments, we show CoVe decreases hallucinations across a variety of tasks, from list-based questions from Wikidata, closed book MultiSpanQA and longform text generation.
PDF396December 15, 2024