ChatPaper.aiChatPaper

Los Modelos de Lenguaje de Gran Escala se Encuentran con los Grafos de Conocimiento para la Respuesta a Preguntas: Síntesis y Oportunidades

Large Language Models Meet Knowledge Graphs for Question Answering: Synthesis and Opportunities

May 26, 2025
Autores: Chuangtao Ma, Yongrui Chen, Tianxing Wu, Arijit Khan, Haofen Wang
cs.AI

Resumen

Los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) han demostrado un rendimiento notable en tareas de respuesta a preguntas (QA, por sus siglas en inglés) debido a sus capacidades superiores en comprensión y generación de lenguaje natural. Sin embargo, los sistemas de QA basados en LLMs enfrentan dificultades en tareas de QA complejas debido a una capacidad de razonamiento limitada, conocimiento desactualizado y alucinaciones. Varios trabajos recientes combinan LLMs y grafos de conocimiento (KGs, por sus siglas en inglés) para abordar estos desafíos en QA. En este estudio, proponemos una nueva taxonomía estructurada que categoriza la metodología de síntesis de LLMs y KGs para QA según los tipos de QA y el papel del KG al integrarse con los LLMs. Revisamos sistemáticamente los avances más recientes en la síntesis de LLMs y KGs para QA, y comparamos y analizamos estos enfoques en términos de fortalezas, limitaciones y requisitos de los KGs. Luego, alineamos los enfoques con las tareas de QA y discutimos cómo estos abordan los principales desafíos de diferentes tipos de QA compleja. Finalmente, resumimos los avances, las métricas de evaluación y los conjuntos de datos de referencia, y destacamos desafíos abiertos y oportunidades futuras.
English
Large language models (LLMs) have demonstrated remarkable performance on question-answering (QA) tasks because of their superior capabilities in natural language understanding and generation. However, LLM-based QA struggles with complex QA tasks due to poor reasoning capacity, outdated knowledge, and hallucinations. Several recent works synthesize LLMs and knowledge graphs (KGs) for QA to address the above challenges. In this survey, we propose a new structured taxonomy that categorizes the methodology of synthesizing LLMs and KGs for QA according to the categories of QA and the KG's role when integrating with LLMs. We systematically survey state-of-the-art advances in synthesizing LLMs and KGs for QA and compare and analyze these approaches in terms of strength, limitations, and KG requirements. We then align the approaches with QA and discuss how these approaches address the main challenges of different complex QA. Finally, we summarize the advancements, evaluation metrics, and benchmark datasets and highlight open challenges and opportunities.
PDF22May 30, 2025