トークンよりも状態:推論トークンの役割の特性評価
State over Tokens: Characterizing the Role of Reasoning Tokens
December 14, 2025
著者: Mosh Levy, Zohar Elyoseph, Shauli Ravfogel, Yoav Goldberg
cs.AI
要旨
大規模言語モデル(LLM)は、複雑なタスクにおける性能向上のために、最終回答の前に推論トークンを生成することができる。これらのトークン列は人間の思考プロセスに似ているように見えるが、実証研究によれば、それらはモデルの実際の推論プロセスを忠実に説明するものではない。この外見と機能の間の隔たりを埋めるため、我々は「トークン上の状態(State over Tokens: SoT)」という概念的枠組みを提案する。SoTは、推論トークンを言語的な叙述としてではなく、外部化された計算状態として再定義する。これは、ステートレスな生成サイクルを跨ぐ唯一の永続的な情報運搬体である。この枠組みにより、トークンがテキストとして読まれた際には忠実な説明とならないにも関わらず、正しい推論を駆動し得る理由が説明され、これまで見過ごされてきたこれらのトークンに関する研究課題が浮き彫りになる。我々は、LLMが行うプロセスを真に理解するためには、推論トークンをテキストとして読むことを超え、それらを状態としてデコードすることに研究の焦点を移す必要があると主張する。
English
Large Language Models (LLMs) can generate reasoning tokens before their final answer to boost performance on complex tasks. While these sequences seem like human thought processes, empirical evidence reveals that they are not a faithful explanation of the model's actual reasoning process. To address this gap between appearance and function, we introduce the State over Tokens (SoT) conceptual framework. SoT reframes reasoning tokens not as a linguistic narrative, but as an externalized computational state -- the sole persistent information carrier across the model's stateless generation cycles. This explains how the tokens can drive correct reasoning without being a faithful explanation when read as text and surfaces previously overlooked research questions on these tokens. We argue that to truly understand the process that LLMs do, research must move beyond reading the reasoning tokens as text and focus on decoding them as state.