Chain-of-Knowledge: Integrare il Ragionamento sulla Conoscenza nei Modelli Linguistici di Grande Scala Apprendendo dai Grafi di Conoscenza
Chain-of-Knowledge: Integrating Knowledge Reasoning into Large Language Models by Learning from Knowledge Graphs
June 30, 2024
Autori: Yifei Zhang, Xintao Wang, Jiaqing Liang, Sirui Xia, Lida Chen, Yanghua Xiao
cs.AI
Abstract
I Large Language Model (LLM) hanno dimostrato un'impressionante competenza in vari compiti di elaborazione del linguaggio naturale (NLP), che coinvolgono ragionamenti sempre più complessi. Il ragionamento basato sulla conoscenza, un tipo primario di ragionamento, mira a derivare nuove conoscenze da quelle esistenti. Sebbene sia stato ampiamente studiato nel contesto delle knowledge graph (KG), il ragionamento basato sulla conoscenza nei LLM rimane ancora poco esplorato. In questo articolo, introduciamo Chain-of-Knowledge, un framework completo per il ragionamento basato sulla conoscenza, che include metodologie sia per la costruzione di dataset che per l'apprendimento del modello. Per la costruzione del dataset, creiamo KnowReason tramite il mining di regole sulle KG. Per l'apprendimento del modello, osserviamo un overfitting delle regole indotto da un addestramento ingenuo. Pertanto, potenziamo CoK con un meccanismo di prova ed errore che simula il processo umano di esplorazione interna della conoscenza. Condividiamo esperimenti estensivi con KnowReason. I nostri risultati dimostrano l'efficacia di CoK nel perfezionare i LLM non solo nel ragionamento basato sulla conoscenza, ma anche nei benchmark di ragionamento generale.
English
Large Language Models (LLMs) have exhibited impressive proficiency in various
natural language processing (NLP) tasks, which involve increasingly complex
reasoning. Knowledge reasoning, a primary type of reasoning, aims at deriving
new knowledge from existing one.While it has been widely studied in the context
of knowledge graphs (KGs), knowledge reasoning in LLMs remains underexplored.
In this paper, we introduce Chain-of-Knowledge, a comprehensive framework for
knowledge reasoning, including methodologies for both dataset construction and
model learning. For dataset construction, we create KnowReason via rule mining
on KGs. For model learning, we observe rule overfitting induced by naive
training. Hence, we enhance CoK with a trial-and-error mechanism that simulates
the human process of internal knowledge exploration. We conduct extensive
experiments with KnowReason. Our results show the effectiveness of CoK in
refining LLMs in not only knowledge reasoning, but also general reasoning
benchmarkms.