ChatPaper.aiChatPaper

Звуковое и полное нейросимвольное рассуждение с интерпретациями, основанными на языковых моделях (LLM)

Sound and Complete Neuro-symbolic Reasoning with LLM-Grounded Interpretations

July 13, 2025
Авторы: Bradley P. Allen, Prateek Chhikara, Thomas Macaulay Ferguson, Filip Ilievski, Paul Groth
cs.AI

Аннотация

Большие языковые модели (LLMs) продемонстрировали впечатляющие способности в понимании и генерации естественного языка, однако они сталкиваются с проблемами логической согласованности в генерируемых результатах. Как можно использовать обширные параметрические знания LLMs в формальных рассуждениях, несмотря на их несогласованность? Мы представляем метод прямого интегрирования LLM в интерпретационную функцию формальной семантики для паранепротиворечивой логики. Мы предоставляем экспериментальные доказательства осуществимости метода, оценивая функцию с использованием наборов данных, созданных на основе нескольких кратких бенчмарков фактологической проверки. В отличие от предыдущих работ, наш метод предлагает теоретическую основу для нейро-символических рассуждений, которая использует знания LLM, сохраняя при этом свойства корректности и полноты базовой логики.
English
Large language models (LLMs) have demonstrated impressive capabilities in natural language understanding and generation, but they exhibit problems with logical consistency in the output they generate. How can we harness LLMs' broad-coverage parametric knowledge in formal reasoning despite their inconsistency? We present a method for directly integrating an LLM into the interpretation function of the formal semantics for a paraconsistent logic. We provide experimental evidence for the feasibility of the method by evaluating the function using datasets created from several short-form factuality benchmarks. Unlike prior work, our method offers a theoretical framework for neuro-symbolic reasoning that leverages an LLM's knowledge while preserving the underlying logic's soundness and completeness properties.
PDF01July 15, 2025