Stato sopra i Token: Caratterizzazione del Ruolo dei Token di Ragionamento
State over Tokens: Characterizing the Role of Reasoning Tokens
December 14, 2025
Autori: Mosh Levy, Zohar Elyoseph, Shauli Ravfogel, Yoav Goldberg
cs.AI
Abstract
I Large Language Model (LLM) possono generare token di ragionamento prima della risposta finale per migliorare le prestazioni su compiti complessi. Sebbene queste sequenze possano apparire simili a processi di pensiero umani, evidenze empiriche rivelano che non costituiscono una spiegazione fedele del processo di ragionamento effettivo del modello. Per colmare questa distanza tra apparenza e funzione, introduciamo il framework concettuale Stato sui Token (SoT). SoT ridefinisce i token di ragionamento non come una narrazione linguistica, ma come uno stato computazionale esternalizzato – l'unico vettore di informazione persistente attraverso i cicli di generazione senza stato del modello. Ciò spiega come i token possano guidare un ragionamento corretto senza essere una spiegazione fedele se letti come testo, e mette in luce questioni di ricerca precedentemente trascurate su questi token. Sosteniamo che per comprendere veramente il processo attuato dagli LLM, la ricerca deve andare oltre la lettura dei token di ragionamento come testo e concentrarsi sulla loro decodifica come stato.
English
Large Language Models (LLMs) can generate reasoning tokens before their final answer to boost performance on complex tasks. While these sequences seem like human thought processes, empirical evidence reveals that they are not a faithful explanation of the model's actual reasoning process. To address this gap between appearance and function, we introduce the State over Tokens (SoT) conceptual framework. SoT reframes reasoning tokens not as a linguistic narrative, but as an externalized computational state -- the sole persistent information carrier across the model's stateless generation cycles. This explains how the tokens can drive correct reasoning without being a faithful explanation when read as text and surfaces previously overlooked research questions on these tokens. We argue that to truly understand the process that LLMs do, research must move beyond reading the reasoning tokens as text and focus on decoding them as state.