ChatPaper.aiChatPaper

Gecertificeerd Redeneren met Taalmodellen

Certified Reasoning with Language Models

June 6, 2023
Auteurs: Gabriel Poesia, Kanishk Gandhi, Eric Zelikman, Noah D. Goodman
cs.AI

Samenvatting

Taalmodellen behalen vaak een hogere nauwkeurigheid wanneer ze stap voor stap redeneren bij complexe taken. Hun redenering kan echter onjuist, inconsistent of gebaseerd zijn op ongewenste aannames. Om deze problemen aan te pakken, introduceren we een klasse van hulpmiddelen voor taalmodellen, genaamd 'guides', die gebruikmaken van toestand en incrementele beperkingen om de generatie te sturen. Een guide kan door het model worden aangeroepen om de eigen generatie te beperken tot een set van geldige uitspraken die door het hulpmiddel worden gegeven. Op hun beurt kunnen de keuzes van het model de toestand van de guide veranderen. We laten zien hoe een algemeen systeem voor logisch redeneren kan worden gebruikt als guide, wat we LogicGuide noemen. Gegeven een redeneerprobleem in natuurlijke taal, kan een model zijn aannames formaliseren voor LogicGuide en vervolgens garanderen dat zijn redeneerstappen correct zijn. In experimenten met de PrOntoQA- en ProofWriter-redeneerdatasets verbetert LogicGuide de prestaties van GPT-3, GPT-3.5 Turbo en LLaMA aanzienlijk (nauwkeurigheidswinst tot 35%). LogicGuide vermindert ook drastisch de invloed van inhoud: de interferentie van eerdere en huidige aannames waarvan is aangetoond dat zowel mensen als taalmodellen er last van hebben. Ten slotte onderzoeken we het bootstrappen van LLaMA 13B vanuit zijn eigen redenering en ontdekken dat LogicGuide cruciaal is: door alleen te trainen op gecertificeerde, zelf gegenereerde redeneringen, kan LLaMA zichzelf verbeteren en voorkomen dat het leert van zijn eigen hallucinaties.
English
Language models often achieve higher accuracy when reasoning step-by-step in complex tasks. However, their reasoning can be unsound, inconsistent, or rely on undesirable prior assumptions. To tackle these issues, we introduce a class of tools for language models called guides that use state and incremental constraints to guide generation. A guide can be invoked by the model to constrain its own generation to a set of valid statements given by the tool. In turn, the model's choices can change the guide's state. We show how a general system for logical reasoning can be used as a guide, which we call LogicGuide. Given a reasoning problem in natural language, a model can formalize its assumptions for LogicGuide and then guarantee that its reasoning steps are sound. In experiments with the PrOntoQA and ProofWriter reasoning datasets, LogicGuide significantly improves the performance of GPT-3, GPT-3.5 Turbo and LLaMA (accuracy gains up to 35%). LogicGuide also drastically reduces content effects: the interference of prior and current assumptions that both humans and language models have been shown to suffer from. Finally, we explore bootstrapping LLaMA 13B from its own reasoning and find that LogicGuide is critical: by training only on certified self-generated reasoning, LLaMA can self-improve, avoiding learning from its own hallucinations.
PDF30December 15, 2024