Il ragionamento frazionario tramite vettori di controllo latenti migliora il tempo di inferenza computazionale
Fractional Reasoning via Latent Steering Vectors Improves Inference Time Compute
June 18, 2025
Autori: Sheng Liu, Tianlang Chen, Pan Lu, Haotian Ye, Yizheng Chen, Lei Xing, James Zou
cs.AI
Abstract
Il calcolo al momento del test è emerso come un paradigma potente per migliorare le prestazioni dei grandi modelli linguistici (LLM), dove generare più output o affinare singole catene di ragionamento può aumentare significativamente l'accuratezza delle risposte. Tuttavia, i metodi esistenti come Best-of-N, voto a maggioranza e auto-riflessione applicano tipicamente il ragionamento in modo uniforme su tutti gli input, trascurando il fatto che problemi diversi possono richiedere livelli di profondità di ragionamento differenti. In questo lavoro, proponiamo il Ragionamento Frazionario, un framework privo di addestramento e agnostico rispetto al modello, che consente un controllo continuo sull'intensità del ragionamento al momento dell'inferenza, superando i limiti delle istruzioni fisse. Il nostro metodo opera estraendo il vettore di controllo latente associato a un ragionamento più profondo e riapplicandolo con un fattore di scala regolabile, permettendo al modello di adattare il proprio processo di ragionamento alla complessità di ciascun input. Ciò supporta due modalità chiave di scalabilità al momento del test: (1) migliorare la qualità dell'output nelle strategie basate sull'ampiezza (ad esempio, Best-of-N, voto a maggioranza), e (2) aumentare la correttezza delle singole catene di ragionamento nelle strategie basate sulla profondità (ad esempio, auto-riflessione). Gli esperimenti su GSM8K, MATH500 e GPQA dimostrano che il Ragionamento Frazionario migliora costantemente le prestazioni su una varietà di compiti di ragionamento e modelli.
English
Test-time compute has emerged as a powerful paradigm for improving the
performance of large language models (LLMs), where generating multiple outputs
or refining individual chains can significantly boost answer accuracy. However,
existing methods like Best-of-N, majority voting, and self-reflection typically
apply reasoning in a uniform way across inputs, overlooking the fact that
different problems may require different levels of reasoning depth. In this
work, we propose Fractional Reasoning, a training-free and model-agnostic
framework that enables continuous control over reasoning intensity at inference
time, going beyond the limitations of fixed instructional prompts. Our method
operates by extracting the latent steering vector associated with deeper
reasoning and reapplying it with a tunable scaling factor, allowing the model
to tailor its reasoning process to the complexity of each input. This supports
two key modes of test-time scaling: (1) improving output quality in
breadth-based strategies (e.g., Best-of-N, majority voting), and (2) enhancing
the correctness of individual reasoning chains in depth-based strategies (e.g.,
self-reflection). Experiments on GSM8K, MATH500, and GPQA demonstrate that
Fractional Reasoning consistently improves performance across diverse reasoning
tasks and models.