Pensamento Suave: Desbloqueando o Potencial de Raciocínio dos LLMs no Espaço Contínuo de Conceitos
Soft Thinking: Unlocking the Reasoning Potential of LLMs in Continuous Concept Space
May 21, 2025
Autores: Zhen Zhang, Xuehai He, Weixiang Yan, Ao Shen, Chenyang Zhao, Shuohang Wang, Yelong Shen, Xin Eric Wang
cs.AI
Resumo
A cognição humana normalmente envolve pensar por meio de conceitos abstratos e fluidos, em vez de usar estritamente tokens linguísticos discretos. No entanto, os modelos de raciocínio atuais estão limitados a raciocinar dentro dos limites da linguagem humana, processando embeddings de tokens discretos que representam pontos fixos no espaço semântico. Essa restrição discreta limita o poder expressivo e o potencial máximo desses modelos de raciocínio, frequentemente causando uma exploração incompleta dos caminhos de raciocínio, já que os métodos padrão de Chain-of-Thought (CoT) dependem da amostragem de um token por etapa. Neste trabalho, introduzimos o Soft Thinking, um método sem necessidade de treinamento que emula o raciocínio "suave" semelhante ao humano, gerando tokens de conceitos abstratos e suaves em um espaço conceitual contínuo. Esses tokens de conceitos são criados pela mistura ponderada por probabilidade de embeddings de tokens, que formam o espaço conceitual contínuo, permitindo transições suaves e representações mais ricas que transcendem os limites discretos tradicionais. Em essência, cada token de conceito gerado encapsula múltiplos significados de tokens discretos relacionados, explorando implicitamente vários caminhos de raciocínio para convergir efetivamente para a resposta correta. Avaliações empíricas em diversos benchmarks matemáticos e de codificação demonstram consistentemente a eficácia e eficiência do Soft Thinking, melhorando a precisão pass@1 em até 2,48 pontos enquanto reduz o uso de tokens em até 22,4% em comparação com o CoT padrão. Análises qualitativas revelam ainda que as saídas do Soft Thinking permanecem altamente interpretáveis e legíveis, destacando o potencial do Soft Thinking para superar o gargalo inerente ao raciocínio baseado em linguagem discreta. O código está disponível em https://github.com/eric-ai-lab/Soft-Thinking.
English
Human cognition typically involves thinking through abstract, fluid concepts
rather than strictly using discrete linguistic tokens. Current reasoning
models, however, are constrained to reasoning within the boundaries of human
language, processing discrete token embeddings that represent fixed points in
the semantic space. This discrete constraint restricts the expressive power and
upper potential of such reasoning models, often causing incomplete exploration
of reasoning paths, as standard Chain-of-Thought (CoT) methods rely on sampling
one token per step. In this work, we introduce Soft Thinking, a training-free
method that emulates human-like "soft" reasoning by generating soft, abstract
concept tokens in a continuous concept space. These concept tokens are created
by the probability-weighted mixture of token embeddings, which form the
continuous concept space, enabling smooth transitions and richer
representations that transcend traditional discrete boundaries. In essence,
each generated concept token encapsulates multiple meanings from related
discrete tokens, implicitly exploring various reasoning paths to converge
effectively toward the correct answer. Empirical evaluations on diverse
mathematical and coding benchmarks consistently demonstrate the effectiveness
and efficiency of Soft Thinking, improving pass@1 accuracy by up to 2.48 points
while simultaneously reducing token usage by up to 22.4% compared to standard
CoT. Qualitative analysis further reveals that Soft Thinking outputs remain
highly interpretable and readable, highlighting the potential of Soft Thinking
to break the inherent bottleneck of discrete language-based reasoning. Code is
available at https://github.com/eric-ai-lab/Soft-Thinking.