チェーン・オブ・ベリフィケーションは大規模言語モデルの幻覚を軽減する
Chain-of-Verification Reduces Hallucination in Large Language Models
September 20, 2023
著者: Shehzaad Dhuliawala, Mojtaba Komeili, Jing Xu, Roberta Raileanu, Xian Li, Asli Celikyilmaz, Jason Weston
cs.AI
要旨
妥当ではあるが誤った事実情報を生成する現象、いわゆる「ハルシネーション」は、大規模言語モデルにおける未解決の問題である。本研究では、言語モデルが自身の回答を熟考し、誤りを修正する能力について検討する。我々は「検証の連鎖(Chain-of-Verification: CoVe)」手法を開発した。この手法では、モデルはまず(i)初期回答を草案し、(ii)その草案を事実確認するための検証質問を計画し、(iii)他の回答に影響されないよう独立してそれらの質問に回答し、(iv)最終的な検証済み回答を生成する。実験において、CoVeがWikidataからのリスト形式の質問、閉じた書籍形式のMultiSpanQA、長文生成など様々なタスクにおいてハルシネーションを減少させることを示す。
English
Generation of plausible yet incorrect factual information, termed
hallucination, is an unsolved issue in large language models. We study the
ability of language models to deliberate on the responses they give in order to
correct their mistakes. We develop the Chain-of-Verification (CoVe) method
whereby the model first (i) drafts an initial response; then (ii) plans
verification questions to fact-check its draft; (iii) answers those questions
independently so the answers are not biased by other responses; and (iv)
generates its final verified response. In experiments, we show CoVe decreases
hallucinations across a variety of tasks, from list-based questions from
Wikidata, closed book MultiSpanQA and longform text generation.