ChatPaper.aiChatPaper

大規模言語モデルにおける知識メカニズム:調査と展望

Knowledge Mechanisms in Large Language Models: A Survey and Perspective

July 22, 2024
著者: Mengru Wang, Yunzhi Yao, Ziwen Xu, Shuofei Qiao, Shumin Deng, Peng Wang, Xiang Chen, Jia-Chen Gu, Yong Jiang, Pengjun Xie, Fei Huang, Huajun Chen, Ningyu Zhang
cs.AI

要旨

大規模言語モデル(LLM)における知識メカニズムの理解は、信頼性の高い汎用人工知能(AGI)に向けた進展において極めて重要である。本論文では、知識の利用と進化を含む新たな分類体系に基づいて、知識メカニズム分析を概観する。知識の利用については、記憶、理解と応用、そして創造のメカニズムを深く探求する。知識の進化は、個々のLLMおよび集団としてのLLMにおける知識の動的な進展に焦点を当てる。さらに、LLMがどのような知識を学習したか、パラメトリック知識の脆弱性の理由、そして将来的に解決が困難となる可能性のあるダークナレッジ(仮説)について議論する。本研究がLLMにおける知識の理解を深め、今後の研究に示唆を与えることを期待する。
English
Understanding knowledge mechanisms in Large Language Models (LLMs) is crucial for advancing towards trustworthy AGI. This paper reviews knowledge mechanism analysis from a novel taxonomy including knowledge utilization and evolution. Knowledge utilization delves into the mechanism of memorization, comprehension and application, and creation. Knowledge evolution focuses on the dynamic progression of knowledge within individual and group LLMs. Moreover, we discuss what knowledge LLMs have learned, the reasons for the fragility of parametric knowledge, and the potential dark knowledge (hypothesis) that will be challenging to address. We hope this work can help understand knowledge in LLMs and provide insights for future research.

Summary

AI-Generated Summary

PDF352November 28, 2024