ChatPaper.aiChatPaper

Chaîne de pensée latente comme planification : Découpler le raisonnement de la verbalisation

Latent Chain-of-Thought as Planning: Decoupling Reasoning from Verbalization

January 29, 2026
papers.authors: Jiecong Wang, Hao Peng, Chunyang Liu
cs.AI

papers.abstract

Le raisonnement en chaîne (Chain-of-Thought, CoT) permet aux grands modèles de langage (LLM) de résoudre des problèmes complexes, mais il reste limité par le coût computationnel et l'effondrement des chemins de raisonnement lorsqu'il est ancré dans des espaces de tokens discrets. Les approches récentes de raisonnement latent tentent d'optimiser l'efficacité en effectuant le raisonnement au sein d'états cachés continus. Cependant, ces méthodes fonctionnent généralement comme des mappings opaques de bout en bout, des étapes de raisonnement explicites vers des états latents, et nécessitent souvent un nombre prédéfini d'étapes latentes lors de l'inférence. Dans ce travail, nous présentons PLaT (Planning with Latent Thoughts), un cadre qui reformule le raisonnement latent comme un processus de planification en découplant fondamentalement le raisonnement de la verbalisation. Nous modélisons le raisonnement comme une trajectoire déterministe d'états de planification latents, tandis qu'un Décodeur distinct ancre ces pensées dans le texte lorsque cela est nécessaire. Ce découplage permet au modèle de déterminer dynamiquement quand mettre fin au raisonnement plutôt que de dépendre d'hyperparamètres fixes. Les résultats empiriques sur des benchmarks mathématiques révèlent un compromis distinct : bien que PLaT obtienne une précision gloutonne inférieure à celle des modèles de référence, il démontre une scalabilité supérieure en termes de diversité de raisonnement. Cela indique que PLaT apprend un espace de solutions plus robuste et plus large, offrant une base transparente et évolutive pour la recherche au moment de l'inférence.
English
Chain-of-Thought (CoT) empowers Large Language Models (LLMs) to tackle complex problems, but remains constrained by the computational cost and reasoning path collapse when grounded in discrete token spaces. Recent latent reasoning approaches attempt to optimize efficiency by performing reasoning within continuous hidden states. However, these methods typically operate as opaque end-to-end mappings from explicit reasoning steps to latent states, and often require a pre-defined number of latent steps during inference. In this work, we introduce PLaT (Planning with Latent Thoughts), a framework that reformulates latent reasoning as planning by fundamentally decouple reasoning from verbalization. We model reasoning as a deterministic trajectory of latent planning states, while a separate Decoder grounds these thoughts into text when necessary. This decoupling allows the model to dynamically determine when to terminate reasoning rather than relying on fixed hyperparameters. Empirical results on mathematical benchmarks reveal a distinct trade-off: while PLaT achieves lower greedy accuracy than baselines, it demonstrates superior scalability in terms of reasoning diversity. This indicates that PLaT learns a robust, broader solution space, offering a transparent and scalable foundation for inference-time search.
PDF52February 3, 2026