ChatPaper.aiChatPaper

Raciocínio Neuro-simbólico Completo e Consistente com Interpretações Fundamentadas em LLM

Sound and Complete Neuro-symbolic Reasoning with LLM-Grounded Interpretations

July 13, 2025
Autores: Bradley P. Allen, Prateek Chhikara, Thomas Macaulay Ferguson, Filip Ilievski, Paul Groth
cs.AI

Resumo

Modelos de linguagem de grande escala (LLMs) têm demonstrado capacidades impressionantes em compreensão e geração de linguagem natural, mas apresentam problemas com a consistência lógica nas saídas que geram. Como podemos aproveitar o conhecimento paramétrico de ampla cobertura dos LLMs no raciocínio formal, apesar de sua inconsistência? Apresentamos um método para integrar diretamente um LLM na função de interpretação da semântica formal de uma lógica paraconsistente. Fornecemos evidências experimentais da viabilidade do método ao avaliar a função usando conjuntos de dados criados a partir de vários benchmarks de factualidade de curta duração. Diferente de trabalhos anteriores, nosso método oferece uma estrutura teórica para o raciocínio neuro-simbólico que aproveita o conhecimento de um LLM enquanto preserva as propriedades de solidez e completude da lógica subjacente.
English
Large language models (LLMs) have demonstrated impressive capabilities in natural language understanding and generation, but they exhibit problems with logical consistency in the output they generate. How can we harness LLMs' broad-coverage parametric knowledge in formal reasoning despite their inconsistency? We present a method for directly integrating an LLM into the interpretation function of the formal semantics for a paraconsistent logic. We provide experimental evidence for the feasibility of the method by evaluating the function using datasets created from several short-form factuality benchmarks. Unlike prior work, our method offers a theoretical framework for neuro-symbolic reasoning that leverages an LLM's knowledge while preserving the underlying logic's soundness and completeness properties.
PDF01July 15, 2025