ChatPaper.aiChatPaper

Государство над токенами: характеристика роли токенов рассуждения

State over Tokens: Characterizing the Role of Reasoning Tokens

December 14, 2025
Авторы: Mosh Levy, Zohar Elyoseph, Shauli Ravfogel, Yoav Goldberg
cs.AI

Аннотация

Крупные языковые модели (LLM) могут генерировать токены рассуждений перед финальным ответом для повышения производительности на сложных задачах. Хотя эти последовательности напоминают процессы человеческого мышления, эмпирические данные свидетельствуют, что они не являются достоверным объяснением реального процесса рассуждений модели. Для устранения этого разрыва между видимостью и функцией мы представляем концептуальную модель «Состояние через Токены» (SoT). SoT переосмысливает токены рассуждений не как лингвистическое повествование, а как экстернализованное вычислительное состояние — единственный персистирующий носитель информации между бессостоятельными циклами генерации модели. Это объясняет, как токены могут управлять корректными рассуждениями, не будучи достоверным объяснением при прочтении как текст, и выявляет ранее упускавшиеся исследовательские вопросы о таких токенах. Мы утверждаем, что для подлинного понимания процессов, осуществляемых LLM, исследования должны выйти за рамки чтения токенов рассуждений как текста и сосредоточиться на их декодировании как состояния.
English
Large Language Models (LLMs) can generate reasoning tokens before their final answer to boost performance on complex tasks. While these sequences seem like human thought processes, empirical evidence reveals that they are not a faithful explanation of the model's actual reasoning process. To address this gap between appearance and function, we introduce the State over Tokens (SoT) conceptual framework. SoT reframes reasoning tokens not as a linguistic narrative, but as an externalized computational state -- the sole persistent information carrier across the model's stateless generation cycles. This explains how the tokens can drive correct reasoning without being a faithful explanation when read as text and surfaces previously overlooked research questions on these tokens. We argue that to truly understand the process that LLMs do, research must move beyond reading the reasoning tokens as text and focus on decoding them as state.
PDF35December 17, 2025