Fractioneel redeneren via latente stuurvectoren verbetert de rekentijd tijdens inferentie
Fractional Reasoning via Latent Steering Vectors Improves Inference Time Compute
June 18, 2025
Auteurs: Sheng Liu, Tianlang Chen, Pan Lu, Haotian Ye, Yizheng Chen, Lei Xing, James Zou
cs.AI
Samenvatting
Test-time compute is naar voren gekomen als een krachtig paradigma om de prestaties van grote taalmodellen (LLMs) te verbeteren, waarbij het genereren van meerdere uitvoer of het verfijnen van individuele redeneerketens de nauwkeurigheid van antwoorden aanzienlijk kan verhogen. Bestaande methoden zoals Best-of-N, meerderheidsstemming en zelfreflectie passen echter meestal redenering uniform toe over verschillende invoer, zonder rekening te houden met het feit dat verschillende problemen verschillende niveaus van redeneerdiepte kunnen vereisen. In dit werk stellen we Fractional Reasoning voor, een trainingsvrij en model-agnostisch raamwerk dat continue controle over de intensiteit van redenering mogelijk maakt tijdens inferentie, voorbij de beperkingen van vaste instructieprompts. Onze methode werkt door de latente stuurvector die geassocieerd is met diepere redenering te extraheren en deze opnieuw toe te passen met een instelbare schaalfactor, waardoor het model zijn redeneerproces kan afstemmen op de complexiteit van elke invoer. Dit ondersteunt twee belangrijke modi van test-time schaling: (1) het verbeteren van de uitvoerkwaliteit in breedte-gebaseerde strategieën (bijv. Best-of-N, meerderheidsstemming), en (2) het vergroten van de correctheid van individuele redeneerketens in diepte-gebaseerde strategieën (bijv. zelfreflectie). Experimenten op GSM8K, MATH500 en GPQA tonen aan dat Fractional Reasoning consistent betere prestaties levert over diverse redeneertaken en modellen.
English
Test-time compute has emerged as a powerful paradigm for improving the
performance of large language models (LLMs), where generating multiple outputs
or refining individual chains can significantly boost answer accuracy. However,
existing methods like Best-of-N, majority voting, and self-reflection typically
apply reasoning in a uniform way across inputs, overlooking the fact that
different problems may require different levels of reasoning depth. In this
work, we propose Fractional Reasoning, a training-free and model-agnostic
framework that enables continuous control over reasoning intensity at inference
time, going beyond the limitations of fixed instructional prompts. Our method
operates by extracting the latent steering vector associated with deeper
reasoning and reapplying it with a tunable scaling factor, allowing the model
to tailor its reasoning process to the complexity of each input. This supports
two key modes of test-time scaling: (1) improving output quality in
breadth-based strategies (e.g., Best-of-N, majority voting), and (2) enhancing
the correctness of individual reasoning chains in depth-based strategies (e.g.,
self-reflection). Experiments on GSM8K, MATH500, and GPQA demonstrate that
Fractional Reasoning consistently improves performance across diverse reasoning
tasks and models.