ChatPaper.aiChatPaper

Uma Análise sobre Raciocínio Latente

A Survey on Latent Reasoning

July 8, 2025
Autores: Rui-Jie Zhu, Tianhao Peng, Tianhao Cheng, Xingwei Qu, Jinfa Huang, Dawei Zhu, Hao Wang, Kaiwen Xue, Xuanliang Zhang, Yong Shan, Tianle Cai, Taylor Kergan, Assel Kembay, Andrew Smith, Chenghua Lin, Binh Nguyen, Yuqi Pan, Yuhong Chou, Zefan Cai, Zhenhe Wu, Yongchi Zhao, Tianyu Liu, Jian Yang, Wangchunshu Zhou, Chujie Zheng, Chongxuan Li, Yuyin Zhou, Zhoujun Li, Zhaoxiang Zhang, Jiaheng Liu, Ge Zhang, Wenhao Huang, Jason Eshraghian
cs.AI

Resumo

Modelos de Linguagem de Grande Escala (LLMs) demonstraram capacidades impressionantes de raciocínio, especialmente quando guiados por cadeias de pensamento explícitas (CoT) que verbalizam etapas intermediárias. Embora o CoT melhore tanto a interpretabilidade quanto a precisão, sua dependência do raciocínio em linguagem natural limita a largura de banda expressiva do modelo. O raciocínio latente aborda esse gargalo ao realizar inferências de múltiplas etapas inteiramente no estado oculto contínuo do modelo, eliminando a supervisão no nível de tokens. Para avançar a pesquisa em raciocínio latente, este estudo fornece uma visão abrangente desse campo emergente. Começamos examinando o papel fundamental das camadas de redes neurais como substrato computacional para o raciocínio, destacando como representações hierárquicas suportam transformações complexas. Em seguida, exploramos diversas metodologias de raciocínio latente, incluindo recorrência baseada em ativações, propagação de estados ocultos e estratégias de ajuste fino que comprimem ou internalizam traços de raciocínio explícitos. Por fim, discutimos paradigmas avançados, como o raciocínio latente de profundidade infinita por meio de modelos de difusão mascarada, que permitem processos de raciocínio globalmente consistentes e reversíveis. Ao unir essas perspectivas, buscamos esclarecer o panorama conceitual do raciocínio latente e traçar direções futuras para a pesquisa na fronteira da cognição de LLMs. Um repositório GitHub associado, que coleta os artigos e repositórios mais recentes, está disponível em: https://github.com/multimodal-art-projection/LatentCoT-Horizon/.
English
Large Language Models (LLMs) have demonstrated impressive reasoning capabilities, especially when guided by explicit chain-of-thought (CoT) reasoning that verbalizes intermediate steps. While CoT improves both interpretability and accuracy, its dependence on natural language reasoning limits the model's expressive bandwidth. Latent reasoning tackles this bottleneck by performing multi-step inference entirely in the model's continuous hidden state, eliminating token-level supervision. To advance latent reasoning research, this survey provides a comprehensive overview of the emerging field of latent reasoning. We begin by examining the foundational role of neural network layers as the computational substrate for reasoning, highlighting how hierarchical representations support complex transformations. Next, we explore diverse latent reasoning methodologies, including activation-based recurrence, hidden state propagation, and fine-tuning strategies that compress or internalize explicit reasoning traces. Finally, we discuss advanced paradigms such as infinite-depth latent reasoning via masked diffusion models, which enable globally consistent and reversible reasoning processes. By unifying these perspectives, we aim to clarify the conceptual landscape of latent reasoning and chart future directions for research at the frontier of LLM cognition. An associated GitHub repository collecting the latest papers and repos is available at: https://github.com/multimodal-art-projection/LatentCoT-Horizon/.
PDF823July 9, 2025