Chain-of-Verification reduziert Halluzinationen in großen Sprachmodellen.
Chain-of-Verification Reduces Hallucination in Large Language Models
September 20, 2023
Autoren: Shehzaad Dhuliawala, Mojtaba Komeili, Jing Xu, Roberta Raileanu, Xian Li, Asli Celikyilmaz, Jason Weston
cs.AI
Zusammenfassung
Die Erzeugung von plausiblen, aber falschen Fakteninformationen, bezeichnet als Halluzination, ist ein ungelöstes Problem bei großen Sprachmodellen. Wir untersuchen die Fähigkeit von Sprachmodellen, über ihre gegebenen Antworten nachzudenken, um ihre Fehler zu korrigieren. Wir entwickeln die Chain-of-Verification (CoVe)-Methode, bei der das Modell zunächst (i) eine erste Antwort entwirft; dann (ii) Verifizierungsfragen plant, um seinen Entwurf zu überprüfen; (iii) diese Fragen unabhängig beantwortet, sodass die Antworten nicht durch andere Antworten beeinflusst werden; und (iv) seine endgültige verifizierte Antwort generiert. In Experimenten zeigen wir, dass CoVe Halluzinationen bei einer Vielzahl von Aufgaben reduziert, von listenbasierten Fragen aus Wikidata, geschlossenen MultiSpanQA-Aufgaben bis hin zur Erzeugung langer Texte.
English
Generation of plausible yet incorrect factual information, termed
hallucination, is an unsolved issue in large language models. We study the
ability of language models to deliberate on the responses they give in order to
correct their mistakes. We develop the Chain-of-Verification (CoVe) method
whereby the model first (i) drafts an initial response; then (ii) plans
verification questions to fact-check its draft; (iii) answers those questions
independently so the answers are not biased by other responses; and (iv)
generates its final verified response. In experiments, we show CoVe decreases
hallucinations across a variety of tasks, from list-based questions from
Wikidata, closed book MultiSpanQA and longform text generation.