Universele Redeneerder: Een enkele, samenstelbare plug-and-play redeneerder voor bevroren LLM's
Universal Reasoner: A Single, Composable Plug-and-Play Reasoner for Frozen LLMs
May 25, 2025
Auteurs: Jaemin Kim, Hangeol Chang, Hyunmin Hwang, Choonghan Kim, Jong Chul Ye
cs.AI
Samenvatting
Grote Taalmodellen (LLMs) hebben opmerkelijke algemene capaciteiten getoond, maar het verbeteren van vaardigheden zoals redeneren vereist vaak aanzienlijke rekenkracht en kan hun generalisatievermogen in gevaar brengen. Hoewel Parameter-Efficiënte Fine-Tuning (PEFT) methoden een meer resourcebewust alternatief bieden, vereisen deze doorgaans hertraining voor elk LLM-backbone vanwege architectuurafhankelijkheden. Om deze uitdagingen aan te pakken, stellen wij hier de Universal Reasoner (UniR) voor – een enkele, lichtgewicht, samenstelbare en plug-and-play redeneermodule die kan worden gebruikt met elk bevroren LLM om het te voorzien van gespecialiseerde redeneercapaciteiten. Specifiek deconstrueert UniR de beloning in een zelfstandige redeneermodule die onafhankelijk wordt getraind met vooraf gedefinieerde beloningen, waardoor trajectniveau-signalen effectief worden vertaald in tokenniveau-begeleiding. Eenmaal getraind, kan UniR tijdens inferentie worden gecombineerd met elk bevroren LLM door simpelweg zijn output-logits toe te voegen aan die van het LLM-backbone. Deze additieve structuur maakt modulaire compositie van nature mogelijk: meerdere UniR-modules die voor verschillende taken zijn getraind, kunnen gezamenlijk worden toegepast door hun logits op te tellen, waardoor complex redeneren via compositie mogelijk wordt. Experimentele resultaten op wiskundige redeneer- en machinaalvertaal-taken tonen aan dat UniR bestaande baseline fine-tuning methoden aanzienlijk overtreft bij gebruik van het Llama3.2-model. Bovendien toont UniR sterke zwak-naar-sterk generalisatie: redeneermodules die op kleinere modellen zijn getraind, begeleiden effectief veel grotere LLMs. Dit maakt UniR een kostenefficiënte, aanpasbare en robuuste oplossing voor het verbeteren van redeneren in LLMs zonder hun kerncapaciteiten in gevaar te brengen. Code is open-source beschikbaar op https://github.com/hangeol/UniR.
English
Large Language Models (LLMs) have demonstrated remarkable general
capabilities, but enhancing skills such as reasoning often demands substantial
computational resources and may compromise their generalization. While
Parameter-Efficient Fine-Tuning (PEFT) methods offer a more resource-conscious
alternative, they typically requires retraining for each LLM backbone due to
architectural dependencies. To address these challenges, here we propose
Universal Reasoner (UniR) - a single, lightweight, composable, and
plug-and-play reasoning module that can be used with any frozen LLM to endow it
with specialized reasoning capabilities. Specifically, UniR decomposes the
reward into a standalone reasoning module that is trained independently using
predefined rewards, effectively translating trajectory-level signals into
token-level guidance. Once trained, UniR can be combined with any frozen LLM at
inference time by simply adding its output logits to those of the LLM backbone.
This additive structure naturally enables modular composition: multiple UniR
modules trained for different tasks can be jointly applied by summing their
logits, enabling complex reasoning via composition. Experimental results on
mathematical reasoning and machine translation tasks show that UniR
significantly outperforms existing baseline fine-tuning methods using the
Llama3.2 model. Furthermore, UniR demonstrates strong weak-to-strong
generalization: reasoning modules trained on smaller models effectively guide
much larger LLMs. This makes UniR a cost-efficient, adaptable, and robust
solution for enhancing reasoning in LLMs without compromising their core
capabilities. Code is open-sourced at https://github.com/hangeol/UniR