ChatPaper.aiChatPaper

Universal Reasoner: Un Motore di Ragionamento Unico, Componibile e Plug-and-Play per LLM Congelati

Universal Reasoner: A Single, Composable Plug-and-Play Reasoner for Frozen LLMs

May 25, 2025
Autori: Jaemin Kim, Hangeol Chang, Hyunmin Hwang, Choonghan Kim, Jong Chul Ye
cs.AI

Abstract

I modelli linguistici di grandi dimensioni (LLM) hanno dimostrato capacità generali notevoli, ma il potenziamento di abilità come il ragionamento spesso richiede risorse computazionali sostanziali e può compromettere la loro generalizzazione. Sebbene i metodi di fine-tuning efficiente in termini di parametri (PEFT) offrano un'alternativa più attenta alle risorse, generalmente richiedono un riaddestramento per ogni architettura di LLM a causa delle dipendenze architetturali. Per affrontare queste sfide, qui proponiamo Universal Reasoner (UniR) - un modulo di ragionamento singolo, leggero, componibile e plug-and-play che può essere utilizzato con qualsiasi LLM congelato per dotarlo di capacità di ragionamento specializzate. Nello specifico, UniR scompone la ricompensa in un modulo di ragionamento autonomo che viene addestrato indipendentemente utilizzando ricompense predefinite, traducendo efficacemente segnali a livello di traiettoria in guida a livello di token. Una volta addestrato, UniR può essere combinato con qualsiasi LLM congelato al momento dell'inferenza semplicemente sommando i suoi logit a quelli dell'architettura LLM. Questa struttura additiva consente naturalmente una composizione modulare: più moduli UniR addestrati per diversi compiti possono essere applicati congiuntamente sommando i loro logit, abilitando un ragionamento complesso tramite composizione. I risultati sperimentali su compiti di ragionamento matematico e traduzione automatica mostrano che UniR supera significativamente i metodi di fine-tuning esistenti utilizzando il modello Llama3.2. Inoltre, UniR dimostra una forte generalizzazione da debole a forte: i moduli di ragionamento addestrati su modelli più piccoli guidano efficacemente LLM molto più grandi. Questo rende UniR una soluzione efficiente in termini di costi, adattabile e robusta per potenziare il ragionamento negli LLM senza comprometterne le capacità fondamentali. Il codice è open-source all'indirizzo https://github.com/hangeol/UniR.
English
Large Language Models (LLMs) have demonstrated remarkable general capabilities, but enhancing skills such as reasoning often demands substantial computational resources and may compromise their generalization. While Parameter-Efficient Fine-Tuning (PEFT) methods offer a more resource-conscious alternative, they typically requires retraining for each LLM backbone due to architectural dependencies. To address these challenges, here we propose Universal Reasoner (UniR) - a single, lightweight, composable, and plug-and-play reasoning module that can be used with any frozen LLM to endow it with specialized reasoning capabilities. Specifically, UniR decomposes the reward into a standalone reasoning module that is trained independently using predefined rewards, effectively translating trajectory-level signals into token-level guidance. Once trained, UniR can be combined with any frozen LLM at inference time by simply adding its output logits to those of the LLM backbone. This additive structure naturally enables modular composition: multiple UniR modules trained for different tasks can be jointly applied by summing their logits, enabling complex reasoning via composition. Experimental results on mathematical reasoning and machine translation tasks show that UniR significantly outperforms existing baseline fine-tuning methods using the Llama3.2 model. Furthermore, UniR demonstrates strong weak-to-strong generalization: reasoning modules trained on smaller models effectively guide much larger LLMs. This makes UniR a cost-efficient, adaptable, and robust solution for enhancing reasoning in LLMs without compromising their core capabilities. Code is open-sourced at https://github.com/hangeol/UniR
PDF212May 29, 2025