Große Sprachmodelle treffen auf Wissensgraphen für die Beantwortung von Fragen: Synthese und Chancen
Large Language Models Meet Knowledge Graphs for Question Answering: Synthesis and Opportunities
May 26, 2025
Autoren: Chuangtao Ma, Yongrui Chen, Tianxing Wu, Arijit Khan, Haofen Wang
cs.AI
Zusammenfassung
Große Sprachmodelle (LLMs) haben aufgrund ihrer überlegenen Fähigkeiten im Verständnis und der Generierung natürlicher Sprache bemerkenswerte Leistungen bei Frage-Antwort-Aufgaben (QA) gezeigt. Allerdings stoßen LLM-basierte QA-Systeme bei komplexen QA-Aufgaben an Grenzen, was auf mangelnde Fähigkeiten im logischen Schlussfolgern, veraltetes Wissen und Halluzinationen zurückzuführen ist. In jüngster Zeit wurden mehrere Ansätze entwickelt, die LLMs und Wissensgraphen (KGs) für QA kombinieren, um diese Herausforderungen zu bewältigen. In dieser Übersichtsarbeit schlagen wir eine neue strukturierte Taxonomie vor, die die Methodik der Synthese von LLMs und KGs für QA nach den Kategorien der QA und der Rolle des KGs bei der Integration mit LLMs klassifiziert. Wir untersuchen systematisch die neuesten Fortschritte bei der Synthese von LLMs und KGs für QA und vergleichen und analysieren diese Ansätze hinsichtlich ihrer Stärken, Schwächen und Anforderungen an den KG. Anschließend ordnen wir die Ansätze den QA-Kategorien zu und diskutieren, wie diese Ansätze die Hauptherausforderungen verschiedener komplexer QA-Aufgaben adressieren. Abschließend fassen wir die Fortschritte, Evaluationsmetriken und Benchmark-Datensätze zusammen und heben offene Herausforderungen und Chancen hervor.
English
Large language models (LLMs) have demonstrated remarkable performance on
question-answering (QA) tasks because of their superior capabilities in natural
language understanding and generation. However, LLM-based QA struggles with
complex QA tasks due to poor reasoning capacity, outdated knowledge, and
hallucinations. Several recent works synthesize LLMs and knowledge graphs (KGs)
for QA to address the above challenges. In this survey, we propose a new
structured taxonomy that categorizes the methodology of synthesizing LLMs and
KGs for QA according to the categories of QA and the KG's role when integrating
with LLMs. We systematically survey state-of-the-art advances in synthesizing
LLMs and KGs for QA and compare and analyze these approaches in terms of
strength, limitations, and KG requirements. We then align the approaches with
QA and discuss how these approaches address the main challenges of different
complex QA. Finally, we summarize the advancements, evaluation metrics, and
benchmark datasets and highlight open challenges and opportunities.