ChatPaper.aiChatPaper

Modelos de Linguagem podem ser Solucionadores Lógicos

Language Models can be Logical Solvers

November 10, 2023
Autores: Jiazhan Feng, Ruochen Xu, Junheng Hao, Hiteshi Sharma, Yelong Shen, Dongyan Zhao, Weizhu Chen
cs.AI

Resumo

O raciocínio lógico é um aspecto fundamental da inteligência humana e um componente chave de tarefas como resolução de problemas e tomada de decisões. Avanços recentes permitiram que Modelos de Linguagem de Grande Escala (LLMs) potencialmente exibissem capacidades de raciocínio, mas o raciocínio lógico complexo continua sendo um desafio. O estado da arte, modelos de linguagem aumentados por solucionadores, utiliza LLMs para analisar questões lógicas em linguagem natural em representações simbólicas primeiro e, em seguida, adota solucionadores lógicos externos para processar as representações simbólicas e gerar as respostas. Apesar de seu desempenho impressionante, qualquer erro de análise inevitavelmente resultará na falha da execução do solucionador lógico externo e na ausência de resposta para as questões lógicas. Neste artigo, apresentamos o LoGiPT, um novo modelo de linguagem que emula diretamente os processos de raciocínio dos solucionadores lógicos e contorna os erros de análise ao aprender a aderir estritamente à sintaxe e gramática dos solucionadores. O LoGiPT é ajustado em um novo conjunto de dados de ajuste de instruções construído a partir da revelação e refinamento do processo de raciocínio invisível de solucionadores dedutivos. Resultados experimentais em dois conjuntos de dados públicos de raciocínio dedutivo demonstram que o LoGiPT supera os modelos de linguagem aumentados por solucionadores de última geração e métodos de prompt de poucos exemplos em LLMs competitivos como ChatGPT ou GPT-4.
English
Logical reasoning is a fundamental aspect of human intelligence and a key component of tasks like problem-solving and decision-making. Recent advancements have enabled Large Language Models (LLMs) to potentially exhibit reasoning capabilities, but complex logical reasoning remains a challenge. The state-of-the-art, solver-augmented language models, use LLMs to parse natural language logical questions into symbolic representations first and then adopt external logical solvers to take in the symbolic representations and output the answers. Despite their impressive performance, any parsing errors will inevitably result in the failure of the execution of the external logical solver and no answer to the logical questions. In this paper, we introduce LoGiPT, a novel language model that directly emulates the reasoning processes of logical solvers and bypasses the parsing errors by learning to strict adherence to solver syntax and grammar. LoGiPT is fine-tuned on a newly constructed instruction-tuning dataset derived from revealing and refining the invisible reasoning process of deductive solvers. Experimental results on two public deductive reasoning datasets demonstrate that LoGiPT outperforms state-of-the-art solver-augmented LMs and few-shot prompting methods on competitive LLMs like ChatGPT or GPT-4.
PDF232December 15, 2024