ChatPaper.aiChatPaper

Razonamiento Neuro-simbólico Sólido y Completo con Interpretaciones Fundamentadas en Modelos de Lenguaje de Gran Escala

Sound and Complete Neuro-symbolic Reasoning with LLM-Grounded Interpretations

July 13, 2025
Autores: Bradley P. Allen, Prateek Chhikara, Thomas Macaulay Ferguson, Filip Ilievski, Paul Groth
cs.AI

Resumen

Los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) han demostrado capacidades impresionantes en la comprensión y generación del lenguaje natural, pero presentan problemas de consistencia lógica en las salidas que generan. ¿Cómo podemos aprovechar el conocimiento paramétrico de amplio alcance de los LLMs en el razonamiento formal a pesar de su inconsistencia? Presentamos un método para integrar directamente un LLM en la función de interpretación de la semántica formal de una lógica paraconsistente. Proporcionamos evidencia experimental de la viabilidad del método mediante la evaluación de la función utilizando conjuntos de datos creados a partir de varios puntos de referencia de factualidad en formato breve. A diferencia de trabajos previos, nuestro método ofrece un marco teórico para el razonamiento neuro-simbólico que aprovecha el conocimiento de un LLM mientras preserva las propiedades de solidez y completitud de la lógica subyacente.
English
Large language models (LLMs) have demonstrated impressive capabilities in natural language understanding and generation, but they exhibit problems with logical consistency in the output they generate. How can we harness LLMs' broad-coverage parametric knowledge in formal reasoning despite their inconsistency? We present a method for directly integrating an LLM into the interpretation function of the formal semantics for a paraconsistent logic. We provide experimental evidence for the feasibility of the method by evaluating the function using datasets created from several short-form factuality benchmarks. Unlike prior work, our method offers a theoretical framework for neuro-symbolic reasoning that leverages an LLM's knowledge while preserving the underlying logic's soundness and completeness properties.
PDF01July 15, 2025