ChatPaper.aiChatPaper

Chaîne-de-Connaissance : Intégration du raisonnement sur les connaissances dans les grands modèles de langage par apprentissage à partir de graphes de connaissances

Chain-of-Knowledge: Integrating Knowledge Reasoning into Large Language Models by Learning from Knowledge Graphs

June 30, 2024
Auteurs: Yifei Zhang, Xintao Wang, Jiaqing Liang, Sirui Xia, Lida Chen, Yanghua Xiao
cs.AI

Résumé

Les modèles de langage de grande taille (LLMs) ont démontré une compétence impressionnante dans diverses tâches de traitement du langage naturel (NLP), qui impliquent un raisonnement de plus en plus complexe. Le raisonnement sur les connaissances, un type principal de raisonnement, vise à dériver de nouvelles connaissances à partir de celles existantes. Bien qu'il ait été largement étudié dans le contexte des graphes de connaissances (KGs), le raisonnement sur les connaissances dans les LLMs reste peu exploré. Dans cet article, nous introduisons Chain-of-Knowledge, un cadre complet pour le raisonnement sur les connaissances, incluant des méthodologies pour la construction de jeux de données et l'apprentissage des modèles. Pour la construction de jeux de données, nous créons KnowReason via l'extraction de règles sur les KGs. Pour l'apprentissage des modèles, nous observons un surajustement des règles induit par un entraînement naïf. Par conséquent, nous améliorons CoK avec un mécanisme d'essai-erreur qui simule le processus humain d'exploration interne des connaissances. Nous menons des expériences approfondies avec KnowReason. Nos résultats montrent l'efficacité de CoK pour affiner les LLMs non seulement dans le raisonnement sur les connaissances, mais aussi dans les benchmarks de raisonnement général.
English
Large Language Models (LLMs) have exhibited impressive proficiency in various natural language processing (NLP) tasks, which involve increasingly complex reasoning. Knowledge reasoning, a primary type of reasoning, aims at deriving new knowledge from existing one.While it has been widely studied in the context of knowledge graphs (KGs), knowledge reasoning in LLMs remains underexplored. In this paper, we introduce Chain-of-Knowledge, a comprehensive framework for knowledge reasoning, including methodologies for both dataset construction and model learning. For dataset construction, we create KnowReason via rule mining on KGs. For model learning, we observe rule overfitting induced by naive training. Hence, we enhance CoK with a trial-and-error mechanism that simulates the human process of internal knowledge exploration. We conduct extensive experiments with KnowReason. Our results show the effectiveness of CoK in refining LLMs in not only knowledge reasoning, but also general reasoning benchmarkms.

Summary

AI-Generated Summary

PDF122November 28, 2024