ChatPaper.aiChatPaper

Chaîne de Brouillons : Penser plus vite en écrivant moins

Chain of Draft: Thinking Faster by Writing Less

February 25, 2025
Auteurs: Silei Xu, Wenhao Xie, Lingxiao Zhao, Pengcheng He
cs.AI

Résumé

Les modèles de langage de grande taille (LLM) ont démontré des performances remarquables dans la résolution de tâches de raisonnement complexes grâce à des mécanismes comme l'incitation en chaîne de pensée (Chain-of-Thought, CoT), qui met l'accent sur un raisonnement détaillé et étape par étape. Cependant, les humains utilisent généralement une stratégie plus efficace : l'élaboration de pensées intermédiaires concises qui ne capturent que les informations essentielles. Dans ce travail, nous proposons la Chaîne de Brouillon (Chain of Draft, CoD), un nouveau paradigme inspiré des processus cognitifs humains, où les LLM génèrent des sorties de raisonnement intermédiaires minimalistes mais informatives lors de la résolution de tâches. En réduisant la verbosité et en se concentrant sur les insights critiques, CoD atteint ou dépasse la précision de CoT tout en utilisant seulement 7,6 % des tokens, réduisant ainsi significativement les coûts et la latence pour diverses tâches de raisonnement.
English
Large Language Models (LLMs) have demonstrated remarkable performance in solving complex reasoning tasks through mechanisms like Chain-of-Thought (CoT) prompting, which emphasizes verbose, step-by-step reasoning. However, humans typically employ a more efficient strategy: drafting concise intermediate thoughts that capture only essential information. In this work, we propose Chain of Draft (CoD), a novel paradigm inspired by human cognitive processes, where LLMs generate minimalistic yet informative intermediate reasoning outputs while solving tasks. By reducing verbosity and focusing on critical insights, CoD matches or surpasses CoT in accuracy while using as little as only 7.6% of the tokens, significantly reducing cost and latency across various reasoning tasks.

Summary

AI-Generated Summary

PDF484March 3, 2025