ChatPaper.aiChatPaper

潜在推論に関する調査

A Survey on Latent Reasoning

July 8, 2025
著者: Rui-Jie Zhu, Tianhao Peng, Tianhao Cheng, Xingwei Qu, Jinfa Huang, Dawei Zhu, Hao Wang, Kaiwen Xue, Xuanliang Zhang, Yong Shan, Tianle Cai, Taylor Kergan, Assel Kembay, Andrew Smith, Chenghua Lin, Binh Nguyen, Yuqi Pan, Yuhong Chou, Zefan Cai, Zhenhe Wu, Yongchi Zhao, Tianyu Liu, Jian Yang, Wangchunshu Zhou, Chujie Zheng, Chongxuan Li, Yuyin Zhou, Zhoujun Li, Zhaoxiang Zhang, Jiaheng Liu, Ge Zhang, Wenhao Huang, Jason Eshraghian
cs.AI

要旨

大規模言語モデル(LLMs)は、特に中間ステップを言語化する明示的な連鎖的思考(CoT)推論に導かれる場合、印象的な推論能力を示している。CoTは解釈可能性と精度の両方を向上させるが、自然言語推論への依存がモデルの表現帯域幅を制限している。潜在推論は、多段階の推論をモデルの連続的な隠れ状態で完全に実行し、トークンレベルの監督を排除することで、このボトルネックに対処する。潜在推論研究を推進するため、本調査はこの新興分野の包括的な概観を提供する。まず、ニューラルネットワーク層が推論の計算基盤として果たす基本的な役割を検証し、階層的表現が複雑な変換をどのようにサポートするかを強調する。次に、活性化ベースの再帰、隠れ状態伝播、明示的な推論トレースを圧縮または内在化するファインチューニング戦略など、多様な潜在推論手法を探る。最後に、マスク拡散モデルを介した無限深度の潜在推論など、グローバルに一貫性があり可逆的な推論プロセスを可能にする先進的なパラダイムについて議論する。これらの視点を統合することで、潜在推論の概念的枠組みを明確にし、LLM認知の最前線における研究の将来の方向性を示すことを目指す。最新の論文とリポジトリを収集した関連GitHubリポジトリは以下で利用可能である: https://github.com/multimodal-art-projection/LatentCoT-Horizon/
English
Large Language Models (LLMs) have demonstrated impressive reasoning capabilities, especially when guided by explicit chain-of-thought (CoT) reasoning that verbalizes intermediate steps. While CoT improves both interpretability and accuracy, its dependence on natural language reasoning limits the model's expressive bandwidth. Latent reasoning tackles this bottleneck by performing multi-step inference entirely in the model's continuous hidden state, eliminating token-level supervision. To advance latent reasoning research, this survey provides a comprehensive overview of the emerging field of latent reasoning. We begin by examining the foundational role of neural network layers as the computational substrate for reasoning, highlighting how hierarchical representations support complex transformations. Next, we explore diverse latent reasoning methodologies, including activation-based recurrence, hidden state propagation, and fine-tuning strategies that compress or internalize explicit reasoning traces. Finally, we discuss advanced paradigms such as infinite-depth latent reasoning via masked diffusion models, which enable globally consistent and reversible reasoning processes. By unifying these perspectives, we aim to clarify the conceptual landscape of latent reasoning and chart future directions for research at the frontier of LLM cognition. An associated GitHub repository collecting the latest papers and repos is available at: https://github.com/multimodal-art-projection/LatentCoT-Horizon/.
PDF703July 9, 2025