Звуковое и полное нейросимвольное рассуждение с интерпретациями, основанными на языковых моделях (LLM)
Sound and Complete Neuro-symbolic Reasoning with LLM-Grounded Interpretations
July 13, 2025
Авторы: Bradley P. Allen, Prateek Chhikara, Thomas Macaulay Ferguson, Filip Ilievski, Paul Groth
cs.AI
Аннотация
Большие языковые модели (LLMs) продемонстрировали впечатляющие способности в понимании и генерации естественного языка, однако они сталкиваются с проблемами логической согласованности в генерируемых результатах. Как можно использовать обширные параметрические знания LLMs в формальных рассуждениях, несмотря на их несогласованность? Мы представляем метод прямого интегрирования LLM в интерпретационную функцию формальной семантики для паранепротиворечивой логики. Мы предоставляем экспериментальные доказательства осуществимости метода, оценивая функцию с использованием наборов данных, созданных на основе нескольких кратких бенчмарков фактологической проверки. В отличие от предыдущих работ, наш метод предлагает теоретическую основу для нейро-символических рассуждений, которая использует знания LLM, сохраняя при этом свойства корректности и полноты базовой логики.
English
Large language models (LLMs) have demonstrated impressive capabilities in
natural language understanding and generation, but they exhibit problems with
logical consistency in the output they generate. How can we harness LLMs'
broad-coverage parametric knowledge in formal reasoning despite their
inconsistency? We present a method for directly integrating an LLM into the
interpretation function of the formal semantics for a paraconsistent logic. We
provide experimental evidence for the feasibility of the method by evaluating
the function using datasets created from several short-form factuality
benchmarks. Unlike prior work, our method offers a theoretical framework for
neuro-symbolic reasoning that leverages an LLM's knowledge while preserving the
underlying logic's soundness and completeness properties.