Cadeia de Pensamento Latente como Planejamento: Desacoplando o Raciocínio da Verbalização
Latent Chain-of-Thought as Planning: Decoupling Reasoning from Verbalization
January 29, 2026
Autores: Jiecong Wang, Hao Peng, Chunyang Liu
cs.AI
Resumo
A Cadeia de Pensamento (CoT) capacita os Grandes Modelos de Linguagem (LLMs) a enfrentarem problemas complexos, mas permanece limitada pelo custo computacional e pelo colapso do percurso de raciocínio quando fundamentada em espaços discretos de tokens. Abordagens recentes de raciocínio latente tentam otimizar a eficiência realizando o raciocínio dentro de estados ocultos contínuos. No entanto, esses métodos geralmente operam como mapeamentos opacos de ponta a ponta, passando de etapas de raciocínio explícitas para estados latentes, e frequentemente exigem um número predefinido de etapas latentes durante a inferência. Neste trabalho, introduzimos o PLaT (Planejamento com Pensamentos Latentes), uma estrutura que reformula o raciocínio latente como planejamento, ao dissociar fundamentalmente o raciocínio da verbalização. Modelamos o raciocínio como uma trajetória determinística de estados de planejamento latentes, enquanto um Decodificador separado ancora esses pensamentos em texto quando necessário. Essa dissociação permite que o modelo determine dinamicamente quando terminar o raciocínio, em vez de depender de hiperparâmetros fixos. Resultados empíricos em benchmarks matemáticos revelam uma compensação distinta: embora o PLaT atinja uma precisão greedy menor do que as linhas de base, ele demonstra escalabilidade superior em termos de diversidade de raciocínio. Isso indica que o PLaT aprende um espaço de solução mais robusto e amplo, oferecendo uma base transparente e escalável para busca durante a inferência.
English
Chain-of-Thought (CoT) empowers Large Language Models (LLMs) to tackle complex problems, but remains constrained by the computational cost and reasoning path collapse when grounded in discrete token spaces. Recent latent reasoning approaches attempt to optimize efficiency by performing reasoning within continuous hidden states. However, these methods typically operate as opaque end-to-end mappings from explicit reasoning steps to latent states, and often require a pre-defined number of latent steps during inference. In this work, we introduce PLaT (Planning with Latent Thoughts), a framework that reformulates latent reasoning as planning by fundamentally decouple reasoning from verbalization. We model reasoning as a deterministic trajectory of latent planning states, while a separate Decoder grounds these thoughts into text when necessary. This decoupling allows the model to dynamically determine when to terminate reasoning rather than relying on fixed hyperparameters. Empirical results on mathematical benchmarks reveal a distinct trade-off: while PLaT achieves lower greedy accuracy than baselines, it demonstrates superior scalability in terms of reasoning diversity. This indicates that PLaT learns a robust, broader solution space, offering a transparent and scalable foundation for inference-time search.