ChatPaper.aiChatPaper

Pensamento Suave: Desbloqueando o Potencial de Raciocínio dos LLMs no Espaço Contínuo de Conceitos

Soft Thinking: Unlocking the Reasoning Potential of LLMs in Continuous Concept Space

May 21, 2025
Autores: Zhen Zhang, Xuehai He, Weixiang Yan, Ao Shen, Chenyang Zhao, Shuohang Wang, Yelong Shen, Xin Eric Wang
cs.AI

Resumo

A cognição humana normalmente envolve pensar por meio de conceitos abstratos e fluidos, em vez de usar estritamente tokens linguísticos discretos. No entanto, os modelos de raciocínio atuais estão limitados a raciocinar dentro dos limites da linguagem humana, processando embeddings de tokens discretos que representam pontos fixos no espaço semântico. Essa restrição discreta limita o poder expressivo e o potencial máximo desses modelos de raciocínio, frequentemente causando uma exploração incompleta dos caminhos de raciocínio, já que os métodos padrão de Chain-of-Thought (CoT) dependem da amostragem de um token por etapa. Neste trabalho, introduzimos o Soft Thinking, um método sem necessidade de treinamento que emula o raciocínio "suave" semelhante ao humano, gerando tokens de conceitos abstratos e suaves em um espaço conceitual contínuo. Esses tokens de conceitos são criados pela mistura ponderada por probabilidade de embeddings de tokens, que formam o espaço conceitual contínuo, permitindo transições suaves e representações mais ricas que transcendem os limites discretos tradicionais. Em essência, cada token de conceito gerado encapsula múltiplos significados de tokens discretos relacionados, explorando implicitamente vários caminhos de raciocínio para convergir efetivamente para a resposta correta. Avaliações empíricas em diversos benchmarks matemáticos e de codificação demonstram consistentemente a eficácia e eficiência do Soft Thinking, melhorando a precisão pass@1 em até 2,48 pontos enquanto reduz o uso de tokens em até 22,4% em comparação com o CoT padrão. Análises qualitativas revelam ainda que as saídas do Soft Thinking permanecem altamente interpretáveis e legíveis, destacando o potencial do Soft Thinking para superar o gargalo inerente ao raciocínio baseado em linguagem discreta. O código está disponível em https://github.com/eric-ai-lab/Soft-Thinking.
English
Human cognition typically involves thinking through abstract, fluid concepts rather than strictly using discrete linguistic tokens. Current reasoning models, however, are constrained to reasoning within the boundaries of human language, processing discrete token embeddings that represent fixed points in the semantic space. This discrete constraint restricts the expressive power and upper potential of such reasoning models, often causing incomplete exploration of reasoning paths, as standard Chain-of-Thought (CoT) methods rely on sampling one token per step. In this work, we introduce Soft Thinking, a training-free method that emulates human-like "soft" reasoning by generating soft, abstract concept tokens in a continuous concept space. These concept tokens are created by the probability-weighted mixture of token embeddings, which form the continuous concept space, enabling smooth transitions and richer representations that transcend traditional discrete boundaries. In essence, each generated concept token encapsulates multiple meanings from related discrete tokens, implicitly exploring various reasoning paths to converge effectively toward the correct answer. Empirical evaluations on diverse mathematical and coding benchmarks consistently demonstrate the effectiveness and efficiency of Soft Thinking, improving pass@1 accuracy by up to 2.48 points while simultaneously reducing token usage by up to 22.4% compared to standard CoT. Qualitative analysis further reveals that Soft Thinking outputs remain highly interpretable and readable, highlighting the potential of Soft Thinking to break the inherent bottleneck of discrete language-based reasoning. Code is available at https://github.com/eric-ai-lab/Soft-Thinking.
PDF183December 8, 2025