ChatPaper.aiChatPaper

Una Rassegna sul Ragionamento Latente

A Survey on Latent Reasoning

July 8, 2025
Autori: Rui-Jie Zhu, Tianhao Peng, Tianhao Cheng, Xingwei Qu, Jinfa Huang, Dawei Zhu, Hao Wang, Kaiwen Xue, Xuanliang Zhang, Yong Shan, Tianle Cai, Taylor Kergan, Assel Kembay, Andrew Smith, Chenghua Lin, Binh Nguyen, Yuqi Pan, Yuhong Chou, Zefan Cai, Zhenhe Wu, Yongchi Zhao, Tianyu Liu, Jian Yang, Wangchunshu Zhou, Chujie Zheng, Chongxuan Li, Yuyin Zhou, Zhoujun Li, Zhaoxiang Zhang, Jiaheng Liu, Ge Zhang, Wenhao Huang, Jason Eshraghian
cs.AI

Abstract

I modelli linguistici di grandi dimensioni (LLM) hanno dimostrato impressionanti capacità di ragionamento, specialmente quando guidati da un ragionamento esplicito a catena di pensiero (CoT) che verbalizza i passaggi intermedi. Sebbene il CoT migliori sia l'interpretabilità che l'accuratezza, la sua dipendenza dal ragionamento in linguaggio naturale limita la larghezza di banda espressiva del modello. Il ragionamento latente affronta questo collo di bottiglia eseguendo inferenze a più passaggi interamente nello stato nascosto continuo del modello, eliminando la supervisione a livello di token. Per far progredire la ricerca sul ragionamento latente, questa rassegna fornisce una panoramica completa del campo emergente del ragionamento latente. Iniziamo esaminando il ruolo fondamentale degli strati delle reti neurali come substrato computazionale per il ragionamento, evidenziando come le rappresentazioni gerarchiche supportino trasformazioni complesse. Successivamente, esploriamo diverse metodologie di ragionamento latente, tra cui la ricorrenza basata sull'attivazione, la propagazione dello stato nascosto e le strategie di fine-tuning che comprimono o internalizzano le tracce di ragionamento esplicito. Infine, discutiamo paradigmi avanzati come il ragionamento latente a profondità infinita tramite modelli di diffusione mascherati, che consentono processi di ragionamento globalmente consistenti e reversibili. Unificando queste prospettive, miriamo a chiarire il panorama concettuale del ragionamento latente e a tracciare future direzioni per la ricerca alla frontiera della cognizione dei LLM. Un repository GitHub associato che raccoglie gli ultimi articoli e repository è disponibile all'indirizzo: https://github.com/multimodal-art-projection/LatentCoT-Horizon/.
English
Large Language Models (LLMs) have demonstrated impressive reasoning capabilities, especially when guided by explicit chain-of-thought (CoT) reasoning that verbalizes intermediate steps. While CoT improves both interpretability and accuracy, its dependence on natural language reasoning limits the model's expressive bandwidth. Latent reasoning tackles this bottleneck by performing multi-step inference entirely in the model's continuous hidden state, eliminating token-level supervision. To advance latent reasoning research, this survey provides a comprehensive overview of the emerging field of latent reasoning. We begin by examining the foundational role of neural network layers as the computational substrate for reasoning, highlighting how hierarchical representations support complex transformations. Next, we explore diverse latent reasoning methodologies, including activation-based recurrence, hidden state propagation, and fine-tuning strategies that compress or internalize explicit reasoning traces. Finally, we discuss advanced paradigms such as infinite-depth latent reasoning via masked diffusion models, which enable globally consistent and reversible reasoning processes. By unifying these perspectives, we aim to clarify the conceptual landscape of latent reasoning and chart future directions for research at the frontier of LLM cognition. An associated GitHub repository collecting the latest papers and repos is available at: https://github.com/multimodal-art-projection/LatentCoT-Horizon/.
PDF853July 9, 2025