Raciocinador Universal: Um Único Raciocinador Plug-and-Play Componível para LLMs Congelados
Universal Reasoner: A Single, Composable Plug-and-Play Reasoner for Frozen LLMs
May 25, 2025
Autores: Jaemin Kim, Hangeol Chang, Hyunmin Hwang, Choonghan Kim, Jong Chul Ye
cs.AI
Resumo
Os Grandes Modelos de Linguagem (LLMs) demonstraram capacidades gerais impressionantes, mas aprimorar habilidades como raciocínio frequentemente exige recursos computacionais substanciais e pode comprometer sua generalização. Embora os métodos de Ajuste Fino Eficiente em Parâmetros (PEFT) ofereçam uma alternativa mais consciente dos recursos, eles geralmente exigem retreinamento para cada arquitetura de LLM devido a dependências arquitetônicas. Para enfrentar esses desafios, aqui propomos o Raciocinador Universal (UniR) - um módulo único, leve, componível e plug-and-play de raciocínio que pode ser usado com qualquer LLM congelado para dotá-lo de capacidades especializadas de raciocínio. Especificamente, o UniR decompõe a recompensa em um módulo de raciocínio independente que é treinado separadamente usando recompensas predefinidas, efetivamente traduzindo sinais de nível de trajetória em orientações de nível de token. Uma vez treinado, o UniR pode ser combinado com qualquer LLM congelado no momento da inferência simplesmente adicionando seus logits de saída aos da arquitetura do LLM. Essa estrutura aditiva naturalmente permite composição modular: múltiplos módulos UniR treinados para diferentes tarefas podem ser aplicados conjuntamente somando seus logits, possibilitando raciocínio complexo por meio de composição. Resultados experimentais em tarefas de raciocínio matemático e tradução automática mostram que o UniR supera significativamente os métodos de ajuste fino existentes usando o modelo Llama3.2. Além disso, o UniR demonstra forte generalização de fraco para forte: módulos de raciocínio treinados em modelos menores orientam efetivamente LLMs muito maiores. Isso torna o UniR uma solução econômica, adaptável e robusta para aprimorar o raciocínio em LLMs sem comprometer suas capacidades principais. O código está disponível em https://github.com/hangeol/UniR.
English
Large Language Models (LLMs) have demonstrated remarkable general
capabilities, but enhancing skills such as reasoning often demands substantial
computational resources and may compromise their generalization. While
Parameter-Efficient Fine-Tuning (PEFT) methods offer a more resource-conscious
alternative, they typically requires retraining for each LLM backbone due to
architectural dependencies. To address these challenges, here we propose
Universal Reasoner (UniR) - a single, lightweight, composable, and
plug-and-play reasoning module that can be used with any frozen LLM to endow it
with specialized reasoning capabilities. Specifically, UniR decomposes the
reward into a standalone reasoning module that is trained independently using
predefined rewards, effectively translating trajectory-level signals into
token-level guidance. Once trained, UniR can be combined with any frozen LLM at
inference time by simply adding its output logits to those of the LLM backbone.
This additive structure naturally enables modular composition: multiple UniR
modules trained for different tasks can be jointly applied by summing their
logits, enabling complex reasoning via composition. Experimental results on
mathematical reasoning and machine translation tasks show that UniR
significantly outperforms existing baseline fine-tuning methods using the
Llama3.2 model. Furthermore, UniR demonstrates strong weak-to-strong
generalization: reasoning modules trained on smaller models effectively guide
much larger LLMs. This makes UniR a cost-efficient, adaptable, and robust
solution for enhancing reasoning in LLMs without compromising their core
capabilities. Code is open-sourced at https://github.com/hangeol/UniR