Verificação Dedutiva do Raciocínio em Cadeia de Pensamentos
Deductive Verification of Chain-of-Thought Reasoning
June 6, 2023
Autores: Zhan Ling, Yunhao Fang, Xuanlin Li, Zhiao Huang, Mingu Lee, Roland Memisevic, Hao Su
cs.AI
Resumo
Os Modelos de Linguagem de Grande Escala (LLMs) se beneficiam significativamente do prompting de Cadeia de Pensamento (CoT) ao realizar diversas tarefas de raciocínio. Embora o CoT permita que os modelos produzam processos de raciocínio mais abrangentes, sua ênfase em etapas intermediárias de raciocínio pode, inadvertidamente, introduzir alucinações e erros acumulados, limitando assim a capacidade dos modelos de resolver tarefas complexas de raciocínio. Inspirados pela forma como os humanos realizam processos de raciocínio lógico dedutivo cuidadosos e meticulosos para resolver tarefas, buscamos capacitar os modelos de linguagem a realizar raciocínios dedutivos explícitos e rigorosos, além de garantir a confiabilidade de seu processo de raciocínio por meio de autoverificação. No entanto, verificar diretamente a validade de todo um processo de raciocínio dedutivo é desafiador, mesmo com modelos avançados como o ChatGPT. Diante disso, propomos decompor um processo de verificação de raciocínio em uma série de subprocessos passo a passo, cada um recebendo apenas o contexto e as premissas necessárias. Para facilitar esse procedimento, propomos o Programa Natural, um formato de raciocínio dedutivo baseado em linguagem natural. Nossa abordagem permite que os modelos gerem etapas de raciocínio precisas, onde as etapas subsequentes são mais rigorosamente fundamentadas nas etapas anteriores. Ela também capacita os modelos de linguagem a realizar autoverificação de raciocínio de maneira passo a passo. Ao integrar esse processo de verificação em cada estágio de raciocínio dedutivo, aumentamos significativamente o rigor e a confiabilidade das etapas de raciocínio geradas. Ao longo desse processo, também melhoramos a correção das respostas em tarefas complexas de raciocínio. O código será disponibilizado em https://github.com/lz1oceani/verify_cot.
English
Large Language Models (LLMs) significantly benefit from Chain-of-Thought
(CoT) prompting in performing various reasoning tasks. While CoT allows models
to produce more comprehensive reasoning processes, its emphasis on intermediate
reasoning steps can inadvertently introduce hallucinations and accumulated
errors, thereby limiting models' ability to solve complex reasoning tasks.
Inspired by how humans engage in careful and meticulous deductive logical
reasoning processes to solve tasks, we seek to enable language models to
perform explicit and rigorous deductive reasoning, and also ensure the
trustworthiness of their reasoning process through self-verification. However,
directly verifying the validity of an entire deductive reasoning process is
challenging, even with advanced models like ChatGPT. In light of this, we
propose to decompose a reasoning verification process into a series of
step-by-step subprocesses, each only receiving their necessary context and
premises. To facilitate this procedure, we propose Natural Program, a natural
language-based deductive reasoning format. Our approach enables models to
generate precise reasoning steps where subsequent steps are more rigorously
grounded on prior steps. It also empowers language models to carry out
reasoning self-verification in a step-by-step manner. By integrating this
verification process into each deductive reasoning stage, we significantly
enhance the rigor and trustfulness of generated reasoning steps. Along this
process, we also improve the answer correctness on complex reasoning tasks.
Code will be released at https://github.com/lz1oceani/verify_cot.