ChatPaper.aiChatPaper

Ragionamento System-1.5: Attraversamento negli Spazi Linguistici e Latenti con Collegamenti Dinamici Brevi

System-1.5 Reasoning: Traversal in Language and Latent Spaces with Dynamic Shortcuts

May 25, 2025
Autori: Xiaoqiang Wang, Suyuchen Wang, Yun Zhu, Bang Liu
cs.AI

Abstract

Il ragionamento a catena di pensiero (Chain-of-Thought, CoT) consente ai grandi modelli linguistici (Large Language Models, LLMs) di andare oltre le risposte rapide del Sistema 1 e di impegnarsi in un ragionamento deliberativo del Sistema 2. Tuttavia, ciò avviene a scapito di una significativa inefficienza dovuta alla produzione verbosa di output intermedi. I recenti metodi di ragionamento nello spazio latente migliorano l'efficienza operando sugli stati nascosti senza decodificarli in linguaggio, ma trattano tutti i passi in modo uniforme, senza distinguere le deduzioni critiche dai passaggi ausiliari, risultando in un uso subottimale delle risorse computazionali. In questo articolo, proponiamo il Ragionamento Sistema-1.5, un framework adattivo che assegna dinamicamente il calcolo attraverso i passi di ragionamento mediante percorsi abbreviati nello spazio latente. Nello specifico, il Ragionamento Sistema-1.5 introduce due tipi di scorciatoie dinamiche. La scorciatoia di profondità del modello (Depth Shortcut, DS) ragiona adattivamente lungo la profondità verticale uscendo precocemente dai token non critici attraverso rami adattatori leggeri, mentre permette ai token critici di proseguire attraverso gli strati più profondi del Transformer. La scorciatoia di passo (Step Shortcut, SS) riutilizza gli stati nascosti tra i passi di decodifica per saltare i passaggi banali e ragionare orizzontalmente nello spazio latente. L'addestramento del Ragionamento Sistema-1.5 prevede un processo di auto-distillazione in due fasi: prima distillando il CoT in linguaggio naturale in pensiero continuo nello spazio latente, e poi distillando il ragionamento latente completo del Sistema 2 in percorsi abbreviati adattivi (Ragionamento Sistema-1.5). Gli esperimenti su compiti di ragionamento dimostrano la prestazione superiore del nostro metodo. Ad esempio, su GSM8K, il Ragionamento Sistema-1.5 raggiunge prestazioni di ragionamento paragonabili ai metodi tradizionali di fine-tuning CoT, accelerando l'inferenza di oltre 20 volte e riducendo la generazione di token del 92,31% in media.
English
Chain-of-thought (CoT) reasoning enables large language models (LLMs) to move beyond fast System-1 responses and engage in deliberative System-2 reasoning. However, this comes at the cost of significant inefficiency due to verbose intermediate output. Recent latent-space reasoning methods improve efficiency by operating on hidden states without decoding into language, yet they treat all steps uniformly, failing to distinguish critical deductions from auxiliary steps and resulting in suboptimal use of computational resources. In this paper, we propose System-1.5 Reasoning, an adaptive reasoning framework that dynamically allocates computation across reasoning steps through shortcut paths in latent space. Specifically, System-1.5 Reasoning introduces two types of dynamic shortcuts. The model depth shortcut (DS) adaptively reasons along the vertical depth by early exiting non-critical tokens through lightweight adapter branches, while allowing critical tokens to continue through deeper Transformer layers. The step shortcut (SS) reuses hidden states across the decoding steps to skip trivial steps and reason horizontally in latent space. Training System-1.5 Reasoning involves a two-stage self-distillation process: first distilling natural language CoT into latent-space continuous thought, and then distilling full-path System-2 latent reasoning into adaptive shortcut paths (System-1.5 Reasoning). Experiments on reasoning tasks demonstrate the superior performance of our method. For example, on GSM8K, System-1.5 Reasoning achieves reasoning performance comparable to traditional CoT fine-tuning methods while accelerating inference by over 20x and reducing token generation by 92.31% on average.
PDF122May 30, 2025