Pensiero Soft: Sbloccare il Potenziale di Ragionamento dei Modelli Linguistici nello Spazio Continuo dei Concetti
Soft Thinking: Unlocking the Reasoning Potential of LLMs in Continuous Concept Space
May 21, 2025
Autori: Zhen Zhang, Xuehai He, Weixiang Yan, Ao Shen, Chenyang Zhao, Shuohang Wang, Yelong Shen, Xin Eric Wang
cs.AI
Abstract
La cognizione umana tipicamente implica il pensiero attraverso concetti astratti e fluidi piuttosto che l'uso rigoroso di token linguistici discreti. I modelli di ragionamento attuali, tuttavia, sono limitati a ragionare entro i confini del linguaggio umano, elaborando embedding di token discreti che rappresentano punti fissi nello spazio semantico. Questo vincolo discreto limita il potere espressivo e il potenziale massimo di tali modelli di ragionamento, causando spesso un'esplorazione incompleta dei percorsi di ragionamento, poiché i metodi standard di Catena di Pensiero (Chain-of-Thought, CoT) si basano sul campionamento di un token per passo. In questo lavoro, introduciamo il Pensiero Morbido (Soft Thinking), un metodo senza addestramento che emula il ragionamento "morbido" simile a quello umano generando token di concetti astratti e fluidi in uno spazio concettuale continuo. Questi token di concetti sono creati dalla miscela ponderata in base alla probabilità degli embedding di token, che formano lo spazio concettuale continuo, consentendo transizioni fluide e rappresentazioni più ricche che trascendono i tradizionali confini discreti. In sostanza, ogni token di concetto generato racchiude molteplici significati da token discreti correlati, esplorando implicitamente vari percorsi di ragionamento per convergere efficacemente verso la risposta corretta. Le valutazioni empiriche su diversi benchmark matematici e di programmazione dimostrano costantemente l'efficacia e l'efficienza del Pensiero Morbido, migliorando l'accuratezza pass@1 fino a 2,48 punti e riducendo contemporaneamente l'uso di token fino al 22,4% rispetto al CoT standard. L'analisi qualitativa rivela inoltre che gli output del Pensiero Morbido rimangono altamente interpretabili e leggibili, evidenziando il potenziale del Pensiero Morbido di superare il collo di bottiglia intrinseco del ragionamento basato sul linguaggio discreto. Il codice è disponibile all'indirizzo https://github.com/eric-ai-lab/Soft-Thinking.
English
Human cognition typically involves thinking through abstract, fluid concepts
rather than strictly using discrete linguistic tokens. Current reasoning
models, however, are constrained to reasoning within the boundaries of human
language, processing discrete token embeddings that represent fixed points in
the semantic space. This discrete constraint restricts the expressive power and
upper potential of such reasoning models, often causing incomplete exploration
of reasoning paths, as standard Chain-of-Thought (CoT) methods rely on sampling
one token per step. In this work, we introduce Soft Thinking, a training-free
method that emulates human-like "soft" reasoning by generating soft, abstract
concept tokens in a continuous concept space. These concept tokens are created
by the probability-weighted mixture of token embeddings, which form the
continuous concept space, enabling smooth transitions and richer
representations that transcend traditional discrete boundaries. In essence,
each generated concept token encapsulates multiple meanings from related
discrete tokens, implicitly exploring various reasoning paths to converge
effectively toward the correct answer. Empirical evaluations on diverse
mathematical and coding benchmarks consistently demonstrate the effectiveness
and efficiency of Soft Thinking, improving pass@1 accuracy by up to 2.48 points
while simultaneously reducing token usage by up to 22.4% compared to standard
CoT. Qualitative analysis further reveals that Soft Thinking outputs remain
highly interpretable and readable, highlighting the potential of Soft Thinking
to break the inherent bottleneck of discrete language-based reasoning. Code is
available at https://github.com/eric-ai-lab/Soft-Thinking.