ChatPaper.aiChatPaper

Chain-of-Verification reduziert Halluzinationen in großen Sprachmodellen.

Chain-of-Verification Reduces Hallucination in Large Language Models

September 20, 2023
Autoren: Shehzaad Dhuliawala, Mojtaba Komeili, Jing Xu, Roberta Raileanu, Xian Li, Asli Celikyilmaz, Jason Weston
cs.AI

Zusammenfassung

Die Erzeugung von plausiblen, aber falschen Fakteninformationen, bezeichnet als Halluzination, ist ein ungelöstes Problem bei großen Sprachmodellen. Wir untersuchen die Fähigkeit von Sprachmodellen, über ihre gegebenen Antworten nachzudenken, um ihre Fehler zu korrigieren. Wir entwickeln die Chain-of-Verification (CoVe)-Methode, bei der das Modell zunächst (i) eine erste Antwort entwirft; dann (ii) Verifizierungsfragen plant, um seinen Entwurf zu überprüfen; (iii) diese Fragen unabhängig beantwortet, sodass die Antworten nicht durch andere Antworten beeinflusst werden; und (iv) seine endgültige verifizierte Antwort generiert. In Experimenten zeigen wir, dass CoVe Halluzinationen bei einer Vielzahl von Aufgaben reduziert, von listenbasierten Fragen aus Wikidata, geschlossenen MultiSpanQA-Aufgaben bis hin zur Erzeugung langer Texte.
English
Generation of plausible yet incorrect factual information, termed hallucination, is an unsolved issue in large language models. We study the ability of language models to deliberate on the responses they give in order to correct their mistakes. We develop the Chain-of-Verification (CoVe) method whereby the model first (i) drafts an initial response; then (ii) plans verification questions to fact-check its draft; (iii) answers those questions independently so the answers are not biased by other responses; and (iv) generates its final verified response. In experiments, we show CoVe decreases hallucinations across a variety of tasks, from list-based questions from Wikidata, closed book MultiSpanQA and longform text generation.
PDF396December 15, 2024