Aproveitando a Economia do Raciocínio: Uma Análise do Raciocínio Eficiente em Modelos de Linguagem de Grande Escala
Harnessing the Reasoning Economy: A Survey of Efficient Reasoning for Large Language Models
March 31, 2025
Autores: Rui Wang, Hongru Wang, Boyang Xue, Jianhui Pang, Shudong Liu, Yi Chen, Jiahao Qiu, Derek Fai Wong, Heng Ji, Kam-Fai Wong
cs.AI
Resumo
Os recentes avanços nos Modelos de Linguagem de Grande Escala (LLMs) têm aprimorado significativamente sua capacidade de realizar tarefas de raciocínio complexo, transitando de um pensamento rápido e intuitivo (Sistema 1) para um raciocínio lento e profundo (Sistema 2). Embora o raciocínio do Sistema 2 melhore a precisão das tarefas, ele frequentemente incorre em custos computacionais substanciais devido à sua natureza de pensamento lento e a comportamentos de raciocínio ineficientes ou desnecessários. Em contraste, o raciocínio do Sistema 1 é computacionalmente eficiente, mas resulta em desempenho subótimo. Consequentemente, é crucial equilibrar a relação entre desempenho (benefícios) e custos computacionais (orçamentos), dando origem ao conceito de economia de raciocínio. Nesta pesquisa, fornecemos uma análise abrangente da economia de raciocínio tanto nas etapas de pós-treinamento quanto de inferência em tempo de teste dos LLMs, abrangendo i) a causa da ineficiência de raciocínio, ii) a análise do comportamento de diferentes padrões de raciocínio e iii) possíveis soluções para alcançar a economia de raciocínio. Ao oferecer insights acionáveis e destacar desafios em aberto, nosso objetivo é lançar luz sobre estratégias para melhorar a economia de raciocínio dos LLMs, servindo assim como um recurso valioso para avançar a pesquisa nesta área em evolução. Também fornecemos um repositório público para acompanhar continuamente os desenvolvimentos neste campo de rápida evolução.
English
Recent advancements in Large Language Models (LLMs) have significantly
enhanced their ability to perform complex reasoning tasks, transitioning from
fast and intuitive thinking (System 1) to slow and deep reasoning (System 2).
While System 2 reasoning improves task accuracy, it often incurs substantial
computational costs due to its slow thinking nature and inefficient or
unnecessary reasoning behaviors. In contrast, System 1 reasoning is
computationally efficient but leads to suboptimal performance. Consequently, it
is critical to balance the trade-off between performance (benefits) and
computational costs (budgets), giving rise to the concept of reasoning economy.
In this survey, we provide a comprehensive analysis of reasoning economy in
both the post-training and test-time inference stages of LLMs, encompassing i)
the cause of reasoning inefficiency, ii) behavior analysis of different
reasoning patterns, and iii) potential solutions to achieve reasoning economy.
By offering actionable insights and highlighting open challenges, we aim to
shed light on strategies for improving the reasoning economy of LLMs, thereby
serving as a valuable resource for advancing research in this evolving area. We
also provide a public repository to continually track developments in this
fast-evolving field.Summary
AI-Generated Summary