ChatPaper.aiChatPaper

Cadeia de Pensamentos Escalável via Raciocínio Elástico

Scalable Chain of Thoughts via Elastic Reasoning

May 8, 2025
Autores: Yuhui Xu, Hanze Dong, Lei Wang, Doyen Sahoo, Junnan Li, Caiming Xiong
cs.AI

Resumo

Modelos de raciocínio de grande escala (LRMs) alcançaram progressos notáveis em tarefas complexas ao gerar cadeias de pensamento (CoT) estendidas. No entanto, seus comprimentos de saída descontrolados apresentam desafios significativos para a implantação no mundo real, onde orçamentos de inferência em tokens, latência ou computação são estritamente limitados. Propomos o Raciocínio Elástico, uma nova estrutura para cadeias de pensamento escaláveis que separa explicitamente o raciocínio em duas fases—pensamento e solução—com orçamentos alocados de forma independente. No momento do teste, o Raciocínio Elástico prioriza a completude dos segmentos de solução, melhorando significativamente a confiabilidade sob restrições rigorosas de recursos. Para treinar modelos que sejam robustos ao pensamento truncado, introduzimos uma estratégia leve de roll-out com restrição de orçamento, integrada ao GRPO, que ensina o modelo a raciocinar de forma adaptativa quando o processo de pensamento é interrompido e generaliza efetivamente para restrições de orçamento não vistas sem treinamento adicional. Resultados empíricos em benchmarks matemáticos (AIME, MATH500) e de programação (LiveCodeBench, Codeforces) demonstram que o Raciocínio Elástico desempenha-se de forma robusta sob restrições rigorosas de orçamento, enquanto incorre em custos de treinamento significativamente menores do que os métodos de base. Notavelmente, nossa abordagem também produz raciocínios mais concisos e eficientes, mesmo em configurações sem restrições. O Raciocínio Elástico oferece uma solução fundamentada e prática para o desafio premente de raciocínio controlável em escala.
English
Large reasoning models (LRMs) have achieved remarkable progress on complex tasks by generating extended chains of thought (CoT). However, their uncontrolled output lengths pose significant challenges for real-world deployment, where inference-time budgets on tokens, latency, or compute are strictly constrained. We propose Elastic Reasoning, a novel framework for scalable chain of thoughts that explicitly separates reasoning into two phases--thinking and solution--with independently allocated budgets. At test time, Elastic Reasoning prioritize that completeness of solution segments, significantly improving reliability under tight resource constraints. To train models that are robust to truncated thinking, we introduce a lightweight budget-constrained rollout strategy, integrated into GRPO, which teaches the model to reason adaptively when the thinking process is cut short and generalizes effectively to unseen budget constraints without additional training. Empirical results on mathematical (AIME, MATH500) and programming (LiveCodeBench, Codeforces) benchmarks demonstrate that Elastic Reasoning performs robustly under strict budget constraints, while incurring significantly lower training cost than baseline methods. Remarkably, our approach also produces more concise and efficient reasoning even in unconstrained settings. Elastic Reasoning offers a principled and practical solution to the pressing challenge of controllable reasoning at scale.
PDF262February 7, 2026