Chain-of-Knowledge: Integratie van Kennisredenering in Grote Taalmodellen door Leren van Kennisgrafen
Chain-of-Knowledge: Integrating Knowledge Reasoning into Large Language Models by Learning from Knowledge Graphs
June 30, 2024
Auteurs: Yifei Zhang, Xintao Wang, Jiaqing Liang, Sirui Xia, Lida Chen, Yanghua Xiao
cs.AI
Samenvatting
Grote Taalmodellen (LLMs) hebben indrukwekkende vaardigheden getoond in diverse taken binnen natuurlijke taalverwerking (NLP), waarbij steeds complexere redeneringen betrokken zijn. Kennisredenering, een primair type redenering, heeft als doel nieuwe kennis af te leiden uit bestaande kennis. Hoewel dit uitgebreid is bestudeerd in de context van kennisgrafieken (KGs), blijft kennisredenering in LLMs onderbelicht. In dit artikel introduceren we Chain-of-Knowledge, een uitgebreid raamwerk voor kennisredenering, inclusief methodologieën voor zowel datasetconstructie als modeltraining. Voor datasetconstructie creëren we KnowReason via regelontginning op KGs. Voor modeltraining observeren we regeloverfitting veroorzaakt door naïeve training. Daarom versterken we CoK met een trial-and-error-mechanisme dat het menselijke proces van interne kennisverkenning simuleert. We voeren uitgebreide experimenten uit met KnowReason. Onze resultaten tonen de effectiviteit van CoK in het verfijnen van LLMs, niet alleen in kennisredenering, maar ook in algemene redeneerbenchmarks.
English
Large Language Models (LLMs) have exhibited impressive proficiency in various
natural language processing (NLP) tasks, which involve increasingly complex
reasoning. Knowledge reasoning, a primary type of reasoning, aims at deriving
new knowledge from existing one.While it has been widely studied in the context
of knowledge graphs (KGs), knowledge reasoning in LLMs remains underexplored.
In this paper, we introduce Chain-of-Knowledge, a comprehensive framework for
knowledge reasoning, including methodologies for both dataset construction and
model learning. For dataset construction, we create KnowReason via rule mining
on KGs. For model learning, we observe rule overfitting induced by naive
training. Hence, we enhance CoK with a trial-and-error mechanism that simulates
the human process of internal knowledge exploration. We conduct extensive
experiments with KnowReason. Our results show the effectiveness of CoK in
refining LLMs in not only knowledge reasoning, but also general reasoning
benchmarkms.