Universal Reasoner: Un Motore di Ragionamento Unico, Componibile e Plug-and-Play per LLM Congelati
Universal Reasoner: A Single, Composable Plug-and-Play Reasoner for Frozen LLMs
May 25, 2025
Autori: Jaemin Kim, Hangeol Chang, Hyunmin Hwang, Choonghan Kim, Jong Chul Ye
cs.AI
Abstract
I modelli linguistici di grandi dimensioni (LLM) hanno dimostrato capacità generali notevoli, ma il potenziamento di abilità come il ragionamento spesso richiede risorse computazionali sostanziali e può compromettere la loro generalizzazione. Sebbene i metodi di fine-tuning efficiente in termini di parametri (PEFT) offrano un'alternativa più attenta alle risorse, generalmente richiedono un riaddestramento per ogni architettura di LLM a causa delle dipendenze architetturali. Per affrontare queste sfide, qui proponiamo Universal Reasoner (UniR) - un modulo di ragionamento singolo, leggero, componibile e plug-and-play che può essere utilizzato con qualsiasi LLM congelato per dotarlo di capacità di ragionamento specializzate. Nello specifico, UniR scompone la ricompensa in un modulo di ragionamento autonomo che viene addestrato indipendentemente utilizzando ricompense predefinite, traducendo efficacemente segnali a livello di traiettoria in guida a livello di token. Una volta addestrato, UniR può essere combinato con qualsiasi LLM congelato al momento dell'inferenza semplicemente sommando i suoi logit a quelli dell'architettura LLM. Questa struttura additiva consente naturalmente una composizione modulare: più moduli UniR addestrati per diversi compiti possono essere applicati congiuntamente sommando i loro logit, abilitando un ragionamento complesso tramite composizione. I risultati sperimentali su compiti di ragionamento matematico e traduzione automatica mostrano che UniR supera significativamente i metodi di fine-tuning esistenti utilizzando il modello Llama3.2. Inoltre, UniR dimostra una forte generalizzazione da debole a forte: i moduli di ragionamento addestrati su modelli più piccoli guidano efficacemente LLM molto più grandi. Questo rende UniR una soluzione efficiente in termini di costi, adattabile e robusta per potenziare il ragionamento negli LLM senza comprometterne le capacità fondamentali. Il codice è open-source all'indirizzo https://github.com/hangeol/UniR.
English
Large Language Models (LLMs) have demonstrated remarkable general
capabilities, but enhancing skills such as reasoning often demands substantial
computational resources and may compromise their generalization. While
Parameter-Efficient Fine-Tuning (PEFT) methods offer a more resource-conscious
alternative, they typically requires retraining for each LLM backbone due to
architectural dependencies. To address these challenges, here we propose
Universal Reasoner (UniR) - a single, lightweight, composable, and
plug-and-play reasoning module that can be used with any frozen LLM to endow it
with specialized reasoning capabilities. Specifically, UniR decomposes the
reward into a standalone reasoning module that is trained independently using
predefined rewards, effectively translating trajectory-level signals into
token-level guidance. Once trained, UniR can be combined with any frozen LLM at
inference time by simply adding its output logits to those of the LLM backbone.
This additive structure naturally enables modular composition: multiple UniR
modules trained for different tasks can be jointly applied by summing their
logits, enabling complex reasoning via composition. Experimental results on
mathematical reasoning and machine translation tasks show that UniR
significantly outperforms existing baseline fine-tuning methods using the
Llama3.2 model. Furthermore, UniR demonstrates strong weak-to-strong
generalization: reasoning modules trained on smaller models effectively guide
much larger LLMs. This makes UniR a cost-efficient, adaptable, and robust
solution for enhancing reasoning in LLMs without compromising their core
capabilities. Code is open-sourced at https://github.com/hangeol/UniR