Universal Reasoner : Un raisonneur unique, composable et prêt à l'emploi pour les LLMs figés
Universal Reasoner: A Single, Composable Plug-and-Play Reasoner for Frozen LLMs
May 25, 2025
Auteurs: Jaemin Kim, Hangeol Chang, Hyunmin Hwang, Choonghan Kim, Jong Chul Ye
cs.AI
Résumé
Les modèles de langage de grande taille (LLMs) ont démontré des capacités générales remarquables, mais l'amélioration de compétences telles que le raisonnement exige souvent des ressources computationnelles substantielles et peut compromettre leur généralisation. Bien que les méthodes de réglage fin efficace en paramètres (PEFT) offrent une alternative plus économe en ressources, elles nécessitent généralement un réentraînement pour chaque architecture de LLM en raison de dépendances architecturales. Pour relever ces défis, nous proposons ici Universal Reasoner (UniR) - un module de raisonnement unique, léger, composable et plug-and-play qui peut être utilisé avec n'importe quel LLM figé pour lui conférer des capacités de raisonnement spécialisées. Plus précisément, UniR décompose la récompense en un module de raisonnement autonome qui est entraîné indépendamment à l'aide de récompenses prédéfinies, traduisant efficacement les signaux au niveau de la trajectoire en un guidage au niveau des tokens. Une fois entraîné, UniR peut être combiné avec n'importe quel LLM figé au moment de l'inférence en ajoutant simplement ses logits de sortie à ceux de l'architecture de LLM. Cette structure additive permet naturellement une composition modulaire : plusieurs modules UniR entraînés pour différentes tâches peuvent être appliqués conjointement en sommant leurs logits, permettant un raisonnement complexe via la composition. Les résultats expérimentaux sur des tâches de raisonnement mathématique et de traduction automatique montrent qu'UniR surpasse significativement les méthodes de réglage fin existantes utilisant le modèle Llama3.2. De plus, UniR démontre une forte généralisation de faible à fort : les modules de raisonnement entraînés sur des modèles plus petits guident efficacement des LLM beaucoup plus grands. Cela fait d'UniR une solution rentable, adaptable et robuste pour améliorer le raisonnement dans les LLM sans compromettre leurs capacités fondamentales. Le code est open-source à l'adresse https://github.com/hangeol/UniR.
English
Large Language Models (LLMs) have demonstrated remarkable general
capabilities, but enhancing skills such as reasoning often demands substantial
computational resources and may compromise their generalization. While
Parameter-Efficient Fine-Tuning (PEFT) methods offer a more resource-conscious
alternative, they typically requires retraining for each LLM backbone due to
architectural dependencies. To address these challenges, here we propose
Universal Reasoner (UniR) - a single, lightweight, composable, and
plug-and-play reasoning module that can be used with any frozen LLM to endow it
with specialized reasoning capabilities. Specifically, UniR decomposes the
reward into a standalone reasoning module that is trained independently using
predefined rewards, effectively translating trajectory-level signals into
token-level guidance. Once trained, UniR can be combined with any frozen LLM at
inference time by simply adding its output logits to those of the LLM backbone.
This additive structure naturally enables modular composition: multiple UniR
modules trained for different tasks can be jointly applied by summing their
logits, enabling complex reasoning via composition. Experimental results on
mathematical reasoning and machine translation tasks show that UniR
significantly outperforms existing baseline fine-tuning methods using the
Llama3.2 model. Furthermore, UniR demonstrates strong weak-to-strong
generalization: reasoning modules trained on smaller models effectively guide
much larger LLMs. This makes UniR a cost-efficient, adaptable, and robust
solution for enhancing reasoning in LLMs without compromising their core
capabilities. Code is open-sourced at https://github.com/hangeol/UniRSummary
AI-Generated Summary