自己調和型思考連鎖
Self-Harmonized Chain of Thought
September 6, 2024
著者: Ziqi Jin, Wei Lu
cs.AI
要旨
Chain-of-Thought (CoT)プロンプティングは、大規模言語モデルが中間ステップを介して複雑な推論を行う能力を示すことができることを明らかにします。CoTプロンプティングは、主に3つのアプローチに分類されます。最初のアプローチは、「ステップごとに考えてみましょう」といった簡単なプロンプトを使用して、回答を出す前に順次思考プロセスを生成します。2番目のアプローチは、人間が作成した段階的なデモンストレーションを使用して、モデルの推論プロセスを誘導します。3番目のアプローチは、「ステップごとに考えてみましょう」を用いて推論されたデモンストレーションの生成を自動化します。このアプローチは時に推論エラーを引き起こすことがあり、その誤解を軽減するためにデモンストレーションを多様化する必要性が示されます。しかし、多様なデモンストレーションは効果的な表現に対する課題を提起します。本研究では、自己調和型のChain-of-Thoughtプロンプティング手法であるECHOを提案します。ECHOは、異なる解決経路を均一かつ効果的な解決パターンに統合します。ECHOは、3つの推論ドメイン全体で最も優れたパフォーマンスを示しています。
English
Chain-of-Thought (CoT) prompting reveals that large language models are
capable of performing complex reasoning via intermediate steps. CoT prompting
is primarily categorized into three approaches. The first approach utilizes
straightforward prompts like ``Let's think step by step'' to generate a
sequential thought process before yielding an answer. The second approach makes
use of human-crafted, step-by-step demonstrations to guide the model's
reasoning process. The third automates the generation of reasoned
demonstrations with the 'Let's think step by step'.This approach sometimes
leads to reasoning errors, highlighting the need to diversify demonstrations to
mitigate its misleading effects. However, diverse demonstrations pose
challenges for effective representations. In this work, we propose ECHO, a
self-harmonized chain-of-thought prompting method. It consolidates diverse
solution paths into a uniform and effective solution pattern.ECHO demonstrates
the best overall performance across three reasoning domains.Summary
AI-Generated Summary