Универсальный рассуждатель: единый, композируемый и готовый к использованию модуль рассуждений для замороженных языковых моделей (LLM).
Universal Reasoner: A Single, Composable Plug-and-Play Reasoner for Frozen LLMs
May 25, 2025
Авторы: Jaemin Kim, Hangeol Chang, Hyunmin Hwang, Choonghan Kim, Jong Chul Ye
cs.AI
Аннотация
Крупные языковые модели (LLMs) продемонстрировали впечатляющие общие способности, однако улучшение таких навыков, как рассуждение, часто требует значительных вычислительных ресурсов и может негативно сказаться на их обобщающей способности. Хотя методы параметрически-эффективной тонкой настройки (PEFT) предлагают более ресурсоэффективную альтернативу, они обычно требуют повторного обучения для каждой базовой архитектуры LLM из-за их архитектурной зависимости. Для решения этих проблем мы предлагаем Universal Reasoner (UniR) — единый, легковесный, композируемый и подключаемый модуль рассуждений, который может использоваться с любой замороженной LLM для наделения её специализированными способностями к рассуждению. В частности, UniR декомпозирует награду в отдельный модуль рассуждений, который обучается независимо с использованием предопределённых наград, эффективно преобразуя сигналы на уровне траекторий в руководство на уровне токенов. После обучения UniR может быть объединён с любой замороженной LLM на этапе вывода путём простого добавления его выходных логитов к логитам базовой LLM. Эта аддитивная структура естественным образом позволяет модульную композицию: несколько модулей UniR, обученных для разных задач, могут совместно применяться путём суммирования их логитов, что позволяет выполнять сложные рассуждения через композицию. Экспериментальные результаты на задачах математического рассуждения и машинного перевода показывают, что UniR значительно превосходит существующие базовые методы тонкой настройки с использованием модели Llama3.2. Более того, UniR демонстрирует сильное обобщение от слабых к сильным моделям: модули рассуждений, обученные на меньших моделях, эффективно направляют гораздо более крупные LLM. Это делает UniR экономически эффективным, адаптируемым и надёжным решением для улучшения способностей к рассуждению в LLM без ущерба для их основных возможностей. Код доступен по адресу: https://github.com/hangeol/UniR.
English
Large Language Models (LLMs) have demonstrated remarkable general
capabilities, but enhancing skills such as reasoning often demands substantial
computational resources and may compromise their generalization. While
Parameter-Efficient Fine-Tuning (PEFT) methods offer a more resource-conscious
alternative, they typically requires retraining for each LLM backbone due to
architectural dependencies. To address these challenges, here we propose
Universal Reasoner (UniR) - a single, lightweight, composable, and
plug-and-play reasoning module that can be used with any frozen LLM to endow it
with specialized reasoning capabilities. Specifically, UniR decomposes the
reward into a standalone reasoning module that is trained independently using
predefined rewards, effectively translating trajectory-level signals into
token-level guidance. Once trained, UniR can be combined with any frozen LLM at
inference time by simply adding its output logits to those of the LLM backbone.
This additive structure naturally enables modular composition: multiple UniR
modules trained for different tasks can be jointly applied by summing their
logits, enabling complex reasoning via composition. Experimental results on
mathematical reasoning and machine translation tasks show that UniR
significantly outperforms existing baseline fine-tuning methods using the
Llama3.2 model. Furthermore, UniR demonstrates strong weak-to-strong
generalization: reasoning modules trained on smaller models effectively guide
much larger LLMs. This makes UniR a cost-efficient, adaptable, and robust
solution for enhancing reasoning in LLMs without compromising their core
capabilities. Code is open-sourced at https://github.com/hangeol/UniRSummary
AI-Generated Summary