ChatPaper.aiChatPaper

Verifica Deduttiva del Ragionamento a Catena di Pensiero

Deductive Verification of Chain-of-Thought Reasoning

June 6, 2023
Autori: Zhan Ling, Yunhao Fang, Xuanlin Li, Zhiao Huang, Mingu Lee, Roland Memisevic, Hao Su
cs.AI

Abstract

I Large Language Model (LLM) traggono significativi benefici dal prompting a Catena di Pensiero (CoT) nell'esecuzione di vari compiti di ragionamento. Sebbene il CoT consenta ai modelli di produrre processi di ragionamento più completi, la sua enfasi sui passaggi intermedi può introdurre involontariamente allucinazioni ed errori accumulati, limitando così la capacità dei modelli di risolvere compiti di ragionamento complessi. Ispirati dal modo in cui gli esseri umani si impegnano in processi di ragionamento logico deduttivo attenti e meticolosi per risolvere i compiti, cerchiamo di consentire ai modelli linguistici di eseguire un ragionamento deduttivo esplicito e rigoroso, garantendo anche l'affidabilità del loro processo di ragionamento attraverso l'autoverifica. Tuttavia, verificare direttamente la validità di un intero processo di ragionamento deduttivo è impegnativo, anche con modelli avanzati come ChatGPT. Alla luce di ciò, proponiamo di scomporre un processo di verifica del ragionamento in una serie di sottoprocessi passo-passo, ciascuno dei quali riceve solo il contesto e le premesse necessarie. Per facilitare questa procedura, proponiamo Natural Program, un formato di ragionamento deduttivo basato sul linguaggio naturale. Il nostro approccio consente ai modelli di generare passaggi di ragionamento precisi in cui i passaggi successivi sono più rigorosamente fondati sui passaggi precedenti. Consente inoltre ai modelli linguistici di eseguire l'autoverifica del ragionamento in modo passo-passo. Integrando questo processo di verifica in ogni fase del ragionamento deduttivo, miglioriamo significativamente il rigore e l'affidabilità dei passaggi di ragionamento generati. Lungo questo processo, miglioriamo anche la correttezza delle risposte su compiti di ragionamento complessi. Il codice sarà rilasciato su https://github.com/lz1oceani/verify_cot.
English
Large Language Models (LLMs) significantly benefit from Chain-of-Thought (CoT) prompting in performing various reasoning tasks. While CoT allows models to produce more comprehensive reasoning processes, its emphasis on intermediate reasoning steps can inadvertently introduce hallucinations and accumulated errors, thereby limiting models' ability to solve complex reasoning tasks. Inspired by how humans engage in careful and meticulous deductive logical reasoning processes to solve tasks, we seek to enable language models to perform explicit and rigorous deductive reasoning, and also ensure the trustworthiness of their reasoning process through self-verification. However, directly verifying the validity of an entire deductive reasoning process is challenging, even with advanced models like ChatGPT. In light of this, we propose to decompose a reasoning verification process into a series of step-by-step subprocesses, each only receiving their necessary context and premises. To facilitate this procedure, we propose Natural Program, a natural language-based deductive reasoning format. Our approach enables models to generate precise reasoning steps where subsequent steps are more rigorously grounded on prior steps. It also empowers language models to carry out reasoning self-verification in a step-by-step manner. By integrating this verification process into each deductive reasoning stage, we significantly enhance the rigor and trustfulness of generated reasoning steps. Along this process, we also improve the answer correctness on complex reasoning tasks. Code will be released at https://github.com/lz1oceani/verify_cot.
PDF60December 15, 2024