Deductieve Verificatie van Ketting-van-Gedachten Redenering
Deductive Verification of Chain-of-Thought Reasoning
June 6, 2023
Auteurs: Zhan Ling, Yunhao Fang, Xuanlin Li, Zhiao Huang, Mingu Lee, Roland Memisevic, Hao Su
cs.AI
Samenvatting
Grote Taalmodellen (LLMs) profiteren aanzienlijk van Chain-of-Thought (CoT) prompting bij het uitvoeren van diverse redeneertaken. Hoewel CoT modellen in staat stelt om meer uitgebreide redeneerprocessen te produceren, kan de nadruk op tussenliggende redeneerstappen onbedoeld hallucinaties en opgestapelde fouten introduceren, wat het vermogen van modellen om complexe redeneertaken op te lossen beperkt. Geïnspireerd door de manier waarop mensen zorgvuldige en nauwgezette deductieve logische redeneerprocessen toepassen om taken op te lossen, streven we ernaar om taalmodellen in staat te stellen expliciete en rigoureuze deductieve redeneringen uit te voeren, en tegelijkertijd de betrouwbaarheid van hun redeneerproces te waarborgen door middel van zelfverificatie. Het direct verifiëren van de geldigheid van een volledig deductief redeneerproces is echter uitdagend, zelfs met geavanceerde modellen zoals ChatGPT. Gezien dit, stellen we voor om een redeneerverificatieproces te ontbinden in een reeks stapsgewijze subprocessen, waarbij elk subproces alleen de benodigde context en premissen ontvangt. Om dit proces te vergemakkelijken, introduceren we Natural Program, een deductief redeneerformaat gebaseerd op natuurlijke taal. Onze aanpak stelt modellen in staat om precieze redeneerstappen te genereren waarbij volgende stappen rigoureuzer zijn gebaseerd op voorgaande stappen. Het stelt taalmodellen ook in staat om redeneerzelfverificatie stapsgewijs uit te voeren. Door dit verificatieproces te integreren in elke deductieve redeneerfase, verbeteren we aanzienlijk de strengheid en betrouwbaarheid van gegenereerde redeneerstappen. Tijdens dit proces verbeteren we ook de correctheid van antwoorden bij complexe redeneertaken. De code zal worden vrijgegeven op https://github.com/lz1oceani/verify_cot.
English
Large Language Models (LLMs) significantly benefit from Chain-of-Thought
(CoT) prompting in performing various reasoning tasks. While CoT allows models
to produce more comprehensive reasoning processes, its emphasis on intermediate
reasoning steps can inadvertently introduce hallucinations and accumulated
errors, thereby limiting models' ability to solve complex reasoning tasks.
Inspired by how humans engage in careful and meticulous deductive logical
reasoning processes to solve tasks, we seek to enable language models to
perform explicit and rigorous deductive reasoning, and also ensure the
trustworthiness of their reasoning process through self-verification. However,
directly verifying the validity of an entire deductive reasoning process is
challenging, even with advanced models like ChatGPT. In light of this, we
propose to decompose a reasoning verification process into a series of
step-by-step subprocesses, each only receiving their necessary context and
premises. To facilitate this procedure, we propose Natural Program, a natural
language-based deductive reasoning format. Our approach enables models to
generate precise reasoning steps where subsequent steps are more rigorously
grounded on prior steps. It also empowers language models to carry out
reasoning self-verification in a step-by-step manner. By integrating this
verification process into each deductive reasoning stage, we significantly
enhance the rigor and trustfulness of generated reasoning steps. Along this
process, we also improve the answer correctness on complex reasoning tasks.
Code will be released at https://github.com/lz1oceani/verify_cot.