За пределами "Эврики!": К систематическому согласованию метаспособностей в крупных моделях рассуждений
Beyond 'Aha!': Toward Systematic Meta-Abilities Alignment in Large Reasoning Models
May 15, 2025
Авторы: Zhiyuan Hu, Yibo Wang, Hanze Dong, Yuhui Xu, Amrita Saha, Caiming Xiong, Bryan Hooi, Junnan Li
cs.AI
Аннотация
Крупные модели рассуждений (LRMs) уже обладают скрытой способностью к длинным цепочкам логических рассуждений. Предыдущие исследования показали, что обучение с подкреплением (RL), основанное на результатах, может случайным образом вызывать сложные поведенческие паттерны рассуждений, такие как самокоррекция, возврат к предыдущим шагам и процессы проверки, часто называемые "моментом озарения" модели. Однако время возникновения и согласованность этих эмерджентных поведений остаются непредсказуемыми и неуправляемыми, что ограничивает масштабируемость и надежность способностей LRM к рассуждениям. Чтобы устранить эти ограничения, мы выходим за рамки зависимости от подсказок и случайных "моментов озарения". Вместо этого мы явно выравниваем модели по трем метаспособностям: дедукции, индукции и абдукции, используя автоматически генерируемые, самопроверяемые задачи. Наш трехэтапный процесс — индивидуальное выравнивание, объединение в пространстве параметров и предметно-ориентированное обучение с подкреплением — повышает производительность более чем на 10% по сравнению с базовыми моделями, настроенными на инструкции. Более того, предметно-ориентированное RL, начиная с выровненной контрольной точки, дает дополнительный средний прирост в 2% на верхней границе производительности в тестах по математике, программированию и естественным наукам, демонстрируя, что явное выравнивание метаспособностей предлагает масштабируемую и надежную основу для рассуждений. Код доступен по адресу: https://github.com/zhiyuanhubj/Meta-Ability-Alignment.
English
Large reasoning models (LRMs) already possess a latent capacity for long
chain-of-thought reasoning. Prior work has shown that outcome-based
reinforcement learning (RL) can incidentally elicit advanced reasoning
behaviors such as self-correction, backtracking, and verification phenomena
often referred to as the model's "aha moment". However, the timing and
consistency of these emergent behaviors remain unpredictable and
uncontrollable, limiting the scalability and reliability of LRMs' reasoning
capabilities. To address these limitations, we move beyond reliance on prompts
and coincidental "aha moments". Instead, we explicitly align models with three
meta-abilities: deduction, induction, and abduction, using automatically
generated, self-verifiable tasks. Our three stage-pipeline individual
alignment, parameter-space merging, and domain-specific reinforcement learning,
boosting performance by over 10\% relative to instruction-tuned baselines.
Furthermore, domain-specific RL from the aligned checkpoint yields an
additional 2\% average gain in the performance ceiling across math, coding, and
science benchmarks, demonstrating that explicit meta-ability alignment offers a
scalable and dependable foundation for reasoning. Code is available at:
https://github.com/zhiyuanhubj/Meta-Ability-AlignmentSummary
AI-Generated Summary