混沌した文脈を解きほぐす思考の糸
Thread of Thought Unraveling Chaotic Contexts
November 15, 2023
著者: Yucheng Zhou, Xiubo Geng, Tao Shen, Chongyang Tao, Guodong Long, Jian-Guang Lou, Jianbing Shen
cs.AI
要旨
大規模言語モデル(LLM)は、自然言語処理の分野において革命的な時代をもたらし、テキストの理解と生成に関連するタスクで優れた性能を発揮しています。しかし、混乱した文脈(例えば、長い無関係な文脈ではなく、注意をそらす要素)に直面すると、特定の詳細を見落としてしまうという課題に直面しています。これらの課題に対応するため、我々は人間の認知プロセスに着想を得た「思考の糸」(Thread of Thought, ThoT)戦略を提案します。ThoTは、長い文脈を体系的に分割・分析し、適切な情報を巧みに選択します。この戦略は、様々なLLMやプロンプト技術とシームレスに統合可能な「プラグアンドプレイ」モジュールとして機能します。実験では、PopQAとEntityQのデータセット、および我々が収集した多ターン会話応答データセット(MTCR)を使用し、ThoTが他のプロンプト技術と比較して推論性能を大幅に向上させることを示します。
English
Large Language Models (LLMs) have ushered in a transformative era in the
field of natural language processing, excelling in tasks related to text
comprehension and generation. Nevertheless, they encounter difficulties when
confronted with chaotic contexts (e.g., distractors rather than long irrelevant
context), leading to the inadvertent omission of certain details within the
chaotic context. In response to these challenges, we introduce the "Thread of
Thought" (ThoT) strategy, which draws inspiration from human cognitive
processes. ThoT systematically segments and analyzes extended contexts while
adeptly selecting pertinent information. This strategy serves as a versatile
"plug-and-play" module, seamlessly integrating with various LLMs and prompting
techniques. In the experiments, we utilize the PopQA and EntityQ datasets, as
well as a Multi-Turn Conversation Response dataset (MTCR) we collected, to
illustrate that ThoT significantly improves reasoning performance compared to
other prompting techniques.