ChatPaper.aiChatPaper

Buffer of Thoughts: Denk-ondersteund redeneren met grote taalmodellen

Buffer of Thoughts: Thought-Augmented Reasoning with Large Language Models

June 6, 2024
Auteurs: Ling Yang, Zhaochen Yu, Tianjun Zhang, Shiyi Cao, Minkai Xu, Wentao Zhang, Joseph E. Gonzalez, Bin Cui
cs.AI

Samenvatting

We introduceren Buffer of Thoughts (BoT), een nieuwe en veelzijdige denk-ondersteunde redeneerbenadering om de nauwkeurigheid, efficiëntie en robuustheid van grote taalmodellen (LLMs) te verbeteren. Specifiek stellen we meta-buffer voor om een reeks informatieve hoogwaardige gedachten, genaamd gedachten-template, op te slaan die zijn gedestilleerd uit de probleemoplossingsprocessen van verschillende taken. Vervolgens halen we voor elk probleem een relevante gedachten-template op en passen deze adaptief aan met specifieke redeneerstructuren om efficiënt te redeneren. Om de schaalbaarheid en stabiliteit te garanderen, stellen we verder buffer-manager voor om de meta-buffer dynamisch bij te werken, waardoor de capaciteit van de meta-buffer wordt vergroot naarmate meer taken worden opgelost. We voeren uitgebreide experimenten uit op 10 uitdagende, redeneerintensieve taken en behalen aanzienlijke prestatieverbeteringen ten opzichte van vorige SOTA-methoden: 11% op Game of 24, 20% op Geometric Shapes en 51% op Checkmate-in-One. Verdere analyses tonen de superieure generalisatiecapaciteit en modelrobuustheid van onze BoT aan, terwijl slechts 12% van de kosten van multi-query prompting-methoden (bijv. boom/grafiek van gedachten) gemiddeld nodig is. Opmerkelijk is dat we ontdekken dat onze Llama3-8B+BoT het potentieel heeft om het Llama3-70B-model te overtreffen. Ons project is beschikbaar op: https://github.com/YangLing0818/buffer-of-thought-llm.
English
We introduce Buffer of Thoughts (BoT), a novel and versatile thought-augmented reasoning approach for enhancing accuracy, efficiency and robustness of large language models (LLMs). Specifically, we propose meta-buffer to store a series of informative high-level thoughts, namely thought-template, distilled from the problem-solving processes across various tasks. Then for each problem, we retrieve a relevant thought-template and adaptively instantiate it with specific reasoning structures to conduct efficient reasoning. To guarantee the scalability and stability, we further propose buffer-manager to dynamically update the meta-buffer, thus enhancing the capacity of meta-buffer as more tasks are solved. We conduct extensive experiments on 10 challenging reasoning-intensive tasks, and achieve significant performance improvements over previous SOTA methods: 11% on Game of 24, 20% on Geometric Shapes and 51% on Checkmate-in-One. Further analysis demonstrate the superior generalization ability and model robustness of our BoT, while requiring only 12% of the cost of multi-query prompting methods (e.g., tree/graph of thoughts) on average. Notably, we find that our Llama3-8B+BoT has the potential to surpass Llama3-70B model. Our project is available at: https://github.com/YangLing0818/buffer-of-thought-llm
PDF291February 7, 2026