ChatPaper.aiChatPaper

ドラフトの連鎖:少ない記述で迅速に思考する

Chain of Draft: Thinking Faster by Writing Less

February 25, 2025
著者: Silei Xu, Wenhao Xie, Lingxiao Zhao, Pengcheng He
cs.AI

要旨

大規模言語モデル(LLM)は、Chain-of-Thought(CoT)プロンプティングなどのメカニズムを通じて、複雑な推論タスクを解決する際に顕著な性能を発揮してきました。CoTは詳細で段階的な推論を重視します。しかし、人間は通常、より効率的な戦略を採用します。つまり、必要な情報のみを捉えた簡潔な中間思考を草案として作成するのです。本研究では、人間の認知プロセスに着想を得た新しいパラダイムであるChain of Draft(CoD)を提案します。CoDでは、LLMがタスクを解決する際に、最小限でありながら有益な中間推論出力を生成します。冗長性を削減し、重要な洞察に焦点を当てることで、CoDはCoTと同等またはそれ以上の精度を達成しつつ、使用するトークン数をわずか7.6%に抑え、様々な推論タスクにおけるコストとレイテンシを大幅に削減します。
English
Large Language Models (LLMs) have demonstrated remarkable performance in solving complex reasoning tasks through mechanisms like Chain-of-Thought (CoT) prompting, which emphasizes verbose, step-by-step reasoning. However, humans typically employ a more efficient strategy: drafting concise intermediate thoughts that capture only essential information. In this work, we propose Chain of Draft (CoD), a novel paradigm inspired by human cognitive processes, where LLMs generate minimalistic yet informative intermediate reasoning outputs while solving tasks. By reducing verbosity and focusing on critical insights, CoD matches or surpasses CoT in accuracy while using as little as only 7.6% of the tokens, significantly reducing cost and latency across various reasoning tasks.

Summary

AI-Generated Summary

PDF484March 3, 2025