大規模言語モデルと知識グラフの統合による質問応答: 統合の可能性と展望
Large Language Models Meet Knowledge Graphs for Question Answering: Synthesis and Opportunities
May 26, 2025
著者: Chuangtao Ma, Yongrui Chen, Tianxing Wu, Arijit Khan, Haofen Wang
cs.AI
要旨
大規模言語モデル(LLMs)は、自然言語理解と生成における優れた能力により、質問応答(QA)タスクで顕著な性能を発揮している。しかし、LLMベースのQAは、推論能力の低さ、知識の陳腐化、および虚構生成(hallucination)のため、複雑なQAタスクに苦戦している。最近のいくつかの研究では、これらの課題に対処するために、LLMsと知識グラフ(KGs)を統合したQA手法が提案されている。本調査では、QAのカテゴリとLLMsと統合する際のKGの役割に基づいて、LLMsとKGsを統合する方法論を分類する新しい構造化された分類体系を提案する。我々は、LLMsとKGsを統合したQAにおける最先端の進展を体系的に調査し、これらのアプローチを強み、限界、およびKGの要件の観点から比較・分析する。次に、これらのアプローチをQAと関連付け、異なる複雑なQAの主要な課題にどのように対処しているかを議論する。最後に、進展、評価指標、ベンチマークデータセットをまとめ、未解決の課題と機会を強調する。
English
Large language models (LLMs) have demonstrated remarkable performance on
question-answering (QA) tasks because of their superior capabilities in natural
language understanding and generation. However, LLM-based QA struggles with
complex QA tasks due to poor reasoning capacity, outdated knowledge, and
hallucinations. Several recent works synthesize LLMs and knowledge graphs (KGs)
for QA to address the above challenges. In this survey, we propose a new
structured taxonomy that categorizes the methodology of synthesizing LLMs and
KGs for QA according to the categories of QA and the KG's role when integrating
with LLMs. We systematically survey state-of-the-art advances in synthesizing
LLMs and KGs for QA and compare and analyze these approaches in terms of
strength, limitations, and KG requirements. We then align the approaches with
QA and discuss how these approaches address the main challenges of different
complex QA. Finally, we summarize the advancements, evaluation metrics, and
benchmark datasets and highlight open challenges and opportunities.