대규모 언어 모델과 지식 그래프의 질의응답을 위한 만남: 통합과 기회
Large Language Models Meet Knowledge Graphs for Question Answering: Synthesis and Opportunities
May 26, 2025
저자: Chuangtao Ma, Yongrui Chen, Tianxing Wu, Arijit Khan, Haofen Wang
cs.AI
초록
대규모 언어 모델(LLM)은 자연어 이해 및 생성 분야에서 뛰어난 능력을 보여주며 질의응답(QA) 작업에서도 주목할 만한 성과를 거두고 있습니다. 그러나 LLM 기반 QA는 복잡한 QA 작업에서 추론 능력 부족, 구식 지식, 그리고 환각 현상으로 인해 어려움을 겪고 있습니다. 이러한 문제를 해결하기 위해 최근 몇몇 연구에서는 LLM과 지식 그래프(KG)를 결합한 QA 접근법을 제안하고 있습니다. 본 조사 논문에서는 LLM과 KG를 QA에 통합하는 방법론을 QA의 범주와 KG의 역할에 따라 분류하는 새로운 구조적 분류 체계를 제안합니다. 또한, LLM과 KG를 결합한 QA 분야의 최신 연구 동향을 체계적으로 조사하고, 이러한 접근법의 강점, 한계, 그리고 KG 요구 사항을 비교 분석합니다. 이어서, 각 접근법을 QA와 연계하여 다양한 복잡한 QA의 주요 문제를 어떻게 해결하는지 논의합니다. 마지막으로, 이 분야의 발전, 평가 지표, 벤치마크 데이터셋을 요약하고, 해결되지 않은 과제와 기회를 강조합니다.
English
Large language models (LLMs) have demonstrated remarkable performance on
question-answering (QA) tasks because of their superior capabilities in natural
language understanding and generation. However, LLM-based QA struggles with
complex QA tasks due to poor reasoning capacity, outdated knowledge, and
hallucinations. Several recent works synthesize LLMs and knowledge graphs (KGs)
for QA to address the above challenges. In this survey, we propose a new
structured taxonomy that categorizes the methodology of synthesizing LLMs and
KGs for QA according to the categories of QA and the KG's role when integrating
with LLMs. We systematically survey state-of-the-art advances in synthesizing
LLMs and KGs for QA and compare and analyze these approaches in terms of
strength, limitations, and KG requirements. We then align the approaches with
QA and discuss how these approaches address the main challenges of different
complex QA. Finally, we summarize the advancements, evaluation metrics, and
benchmark datasets and highlight open challenges and opportunities.