Ragionamento Neuro-simbolico Sano e Completo con Interpretazioni Fondate su LLM
Sound and Complete Neuro-symbolic Reasoning with LLM-Grounded Interpretations
July 13, 2025
Autori: Bradley P. Allen, Prateek Chhikara, Thomas Macaulay Ferguson, Filip Ilievski, Paul Groth
cs.AI
Abstract
I modelli linguistici di grandi dimensioni (LLM) hanno dimostrato capacità impressionanti nella comprensione e generazione del linguaggio naturale, ma presentano problemi di coerenza logica negli output che producono. Come possiamo sfruttare la conoscenza parametrica ad ampio spettro degli LLM nel ragionamento formale nonostante la loro incoerenza? Presentiamo un metodo per integrare direttamente un LLM nella funzione di interpretazione della semantica formale per una logica paraconsistente. Forniamo evidenze sperimentali della fattibilità del metodo valutando la funzione utilizzando dataset creati da diversi benchmark di fattualità in forma breve. A differenza di lavori precedenti, il nostro metodo offre un quadro teorico per il ragionamento neuro-simbolico che sfrutta la conoscenza di un LLM preservando le proprietà di correttezza e completezza della logica sottostante.
English
Large language models (LLMs) have demonstrated impressive capabilities in
natural language understanding and generation, but they exhibit problems with
logical consistency in the output they generate. How can we harness LLMs'
broad-coverage parametric knowledge in formal reasoning despite their
inconsistency? We present a method for directly integrating an LLM into the
interpretation function of the formal semantics for a paraconsistent logic. We
provide experimental evidence for the feasibility of the method by evaluating
the function using datasets created from several short-form factuality
benchmarks. Unlike prior work, our method offers a theoretical framework for
neuro-symbolic reasoning that leverages an LLM's knowledge while preserving the
underlying logic's soundness and completeness properties.