Catena di Pensiero Latente come Pianificazione: Disaccoppiare il Ragionamento dalla Verbalizzazione
Latent Chain-of-Thought as Planning: Decoupling Reasoning from Verbalization
January 29, 2026
Autori: Jiecong Wang, Hao Peng, Chunyang Liu
cs.AI
Abstract
Chain-of-Thought (CoT) consente ai Large Language Model (LLM) di affrontare problemi complessi, ma rimane limitato dal costo computazionale e dal collasso del percorso di ragionamento quando ancorato a spazi di token discreti. I recenti approcci di ragionamento latente tentano di ottimizzare l'efficienza eseguendo il ragionamento all'interno di stati nascosti continui. Tuttavia, questi metodi operano tipicamente come mappature opache end-to-end da passaggi di ragionamento espliciti a stati latenti e spesso richiedono un numero predefinito di passi latenti durante l'inferenza. In questo lavoro, introduciamo PLaT (Planning with Latent Thoughts), un framework che riformula il ragionamento latente come pianificazione, disaccoppiando fondamentalmente il ragionamento dalla verbalizzazione. Modelliamo il ragionamento come una traiettoria deterministica di stati di pianificazione latente, mentre un Decoder separato ancorà questi pensieri al testo quando necessario. Questo disaccoppiamento consente al modello di determinare dinamicamente quando terminare il ragionamento, piuttosto che affidarsi a iperparametri fissi. I risultati empirici su benchmark matematici rivelano un chiaro trade-off: sebbene PLaT raggiunga una minore accuratezza greedy rispetto ai baseline, dimostra una scalabilità superiore in termini di diversità di ragionamento. Ciò indica che PLaT apprende uno spazio di soluzioni più robusto e ampio, offrendo una base trasparente e scalabile per la ricerca al momento dell'inferenza.
English
Chain-of-Thought (CoT) empowers Large Language Models (LLMs) to tackle complex problems, but remains constrained by the computational cost and reasoning path collapse when grounded in discrete token spaces. Recent latent reasoning approaches attempt to optimize efficiency by performing reasoning within continuous hidden states. However, these methods typically operate as opaque end-to-end mappings from explicit reasoning steps to latent states, and often require a pre-defined number of latent steps during inference. In this work, we introduce PLaT (Planning with Latent Thoughts), a framework that reformulates latent reasoning as planning by fundamentally decouple reasoning from verbalization. We model reasoning as a deterministic trajectory of latent planning states, while a separate Decoder grounds these thoughts into text when necessary. This decoupling allows the model to dynamically determine when to terminate reasoning rather than relying on fixed hyperparameters. Empirical results on mathematical benchmarks reveal a distinct trade-off: while PLaT achieves lower greedy accuracy than baselines, it demonstrates superior scalability in terms of reasoning diversity. This indicates that PLaT learns a robust, broader solution space, offering a transparent and scalable foundation for inference-time search.