ChatPaper.aiChatPaper

Estado sobre Tokens: Caracterizando el Rol de los Tokens de Razonamiento

State over Tokens: Characterizing the Role of Reasoning Tokens

December 14, 2025
Autores: Mosh Levy, Zohar Elyoseph, Shauli Ravfogel, Yoav Goldberg
cs.AI

Resumen

Los Modelos de Lenguaje Grandes (LLM) pueden generar tokens de razonamiento antes de su respuesta final para mejorar el rendimiento en tareas complejas. Aunque estas secuencias se asemejan a procesos de pensamiento humano, la evidencia empírica revela que no son una explicación fiel del proceso de razonamiento real del modelo. Para abordar esta brecha entre apariencia y función, introducimos el marco conceptual Estado sobre Tokens (SoT, por sus siglas en inglés). SoT reformula los tokens de razonamiento no como una narrativa lingüística, sino como un estado computacional externalizado: el único portador de información persistente a través de los ciclos de generación sin estado del modelo. Esto explica cómo los tokens pueden impulsar un razonamiento correcto sin ser una explicación fiel cuando se leen como texto, y saca a la luz preguntas de investigación previamente pasadas por alto sobre estos tokens. Sostenemos que para comprender verdaderamente el proceso que realizan los LLM, la investigación debe ir más allá de leer los tokens de razonamiento como texto y centrarse en decodificarlos como estado.
English
Large Language Models (LLMs) can generate reasoning tokens before their final answer to boost performance on complex tasks. While these sequences seem like human thought processes, empirical evidence reveals that they are not a faithful explanation of the model's actual reasoning process. To address this gap between appearance and function, we introduce the State over Tokens (SoT) conceptual framework. SoT reframes reasoning tokens not as a linguistic narrative, but as an externalized computational state -- the sole persistent information carrier across the model's stateless generation cycles. This explains how the tokens can drive correct reasoning without being a faithful explanation when read as text and surfaces previously overlooked research questions on these tokens. We argue that to truly understand the process that LLMs do, research must move beyond reading the reasoning tokens as text and focus on decoding them as state.
PDF35December 17, 2025