Buffer de Pensamentos: Raciocínio Aumentado por Pensamentos com Modelos de Linguagem de Grande Escala
Buffer of Thoughts: Thought-Augmented Reasoning with Large Language Models
June 6, 2024
Autores: Ling Yang, Zhaochen Yu, Tianjun Zhang, Shiyi Cao, Minkai Xu, Wentao Zhang, Joseph E. Gonzalez, Bin Cui
cs.AI
Resumo
Apresentamos o Buffer of Thoughts (BoT), uma abordagem nova e versátil de raciocínio aumentado por pensamentos para melhorar a precisão, eficiência e robustez de modelos de linguagem de grande escala (LLMs). Especificamente, propomos o meta-buffer para armazenar uma série de pensamentos de alto nível informativos, denominados thought-template, extraídos dos processos de resolução de problemas em diversas tarefas. Em seguida, para cada problema, recuperamos um thought-template relevante e o instanciamos de forma adaptativa com estruturas de raciocínio específicas para conduzir um raciocínio eficiente. Para garantir escalabilidade e estabilidade, propomos ainda o buffer-manager para atualizar dinamicamente o meta-buffer, aumentando assim sua capacidade à medida que mais tarefas são resolvidas. Realizamos experimentos extensivos em 10 tarefas desafiadoras e intensivas em raciocínio, alcançando melhorias significativas de desempenho em relação aos métodos SOTA anteriores: 11% no Game of 24, 20% em Geometric Shapes e 51% em Checkmate-in-One. Análises adicionais demonstram a superior capacidade de generalização e robustez do modelo do nosso BoT, enquanto requer apenas 12% do custo de métodos de prompt multi-consulta (por exemplo, árvore/grafo de pensamentos) em média. Notavelmente, descobrimos que nosso Llama3-8B+BoT tem o potencial de superar o modelo Llama3-70B. Nosso projeto está disponível em: https://github.com/YangLing0818/buffer-of-thought-llm
English
We introduce Buffer of Thoughts (BoT), a novel and versatile
thought-augmented reasoning approach for enhancing accuracy, efficiency and
robustness of large language models (LLMs). Specifically, we propose
meta-buffer to store a series of informative high-level thoughts, namely
thought-template, distilled from the problem-solving processes across various
tasks. Then for each problem, we retrieve a relevant thought-template and
adaptively instantiate it with specific reasoning structures to conduct
efficient reasoning. To guarantee the scalability and stability, we further
propose buffer-manager to dynamically update the meta-buffer, thus enhancing
the capacity of meta-buffer as more tasks are solved. We conduct extensive
experiments on 10 challenging reasoning-intensive tasks, and achieve
significant performance improvements over previous SOTA methods: 11% on Game of
24, 20% on Geometric Shapes and 51% on Checkmate-in-One. Further analysis
demonstrate the superior generalization ability and model robustness of our
BoT, while requiring only 12% of the cost of multi-query prompting methods
(e.g., tree/graph of thoughts) on average. Notably, we find that our
Llama3-8B+BoT has the potential to surpass Llama3-70B model. Our project is
available at: https://github.com/YangLing0818/buffer-of-thought-llm