Oltre l'"Aha!": Verso un Allineamento Sistematico delle Meta-Abilità nei Modelli di Ragionamento su Larga Scala
Beyond 'Aha!': Toward Systematic Meta-Abilities Alignment in Large Reasoning Models
May 15, 2025
Autori: Zhiyuan Hu, Yibo Wang, Hanze Dong, Yuhui Xu, Amrita Saha, Caiming Xiong, Bryan Hooi, Junnan Li
cs.AI
Abstract
I grandi modelli di ragionamento (LRM) possiedono già una capacità latente per ragionamenti a catena lunga. Ricerche precedenti hanno dimostrato che il reinforcement learning (RL) basato sui risultati può incidentalmente elicitare comportamenti di ragionamento avanzati come l'autocorrezione, il backtracking e fenomeni di verifica spesso definiti come il "momento eureka" del modello. Tuttavia, il tempismo e la consistenza di questi comportamenti emergenti rimangono imprevedibili e incontrollabili, limitando la scalabilità e l'affidabilità delle capacità di ragionamento dei LRM. Per affrontare queste limitazioni, andiamo oltre la dipendenza da prompt e "momenti eureka" casuali. Invece, allineiamo esplicitamente i modelli con tre meta-abilità: deduzione, induzione e abduzione, utilizzando task generati automaticamente e auto-verificabili. La nostra pipeline a tre fasi—allineamento individuale, fusione nello spazio dei parametri e reinforcement learning specifico per dominio—migliora le prestazioni di oltre il 10% rispetto ai baseline ottimizzati con istruzioni. Inoltre, il RL specifico per dominio a partire dal checkpoint allineato produce un ulteriore guadagno medio del 2% nel tetto delle prestazioni su benchmark di matematica, programmazione e scienze, dimostrando che l'allineamento esplicito delle meta-abilità offre una base scalabile e affidabile per il ragionamento. Il codice è disponibile all'indirizzo: https://github.com/zhiyuanhubj/Meta-Ability-Alignment
English
Large reasoning models (LRMs) already possess a latent capacity for long
chain-of-thought reasoning. Prior work has shown that outcome-based
reinforcement learning (RL) can incidentally elicit advanced reasoning
behaviors such as self-correction, backtracking, and verification phenomena
often referred to as the model's "aha moment". However, the timing and
consistency of these emergent behaviors remain unpredictable and
uncontrollable, limiting the scalability and reliability of LRMs' reasoning
capabilities. To address these limitations, we move beyond reliance on prompts
and coincidental "aha moments". Instead, we explicitly align models with three
meta-abilities: deduction, induction, and abduction, using automatically
generated, self-verifiable tasks. Our three stage-pipeline individual
alignment, parameter-space merging, and domain-specific reinforcement learning,
boosting performance by over 10\% relative to instruction-tuned baselines.
Furthermore, domain-specific RL from the aligned checkpoint yields an
additional 2\% average gain in the performance ceiling across math, coding, and
science benchmarks, demonstrating that explicit meta-ability alignment offers a
scalable and dependable foundation for reasoning. Code is available at:
https://github.com/zhiyuanhubj/Meta-Ability-Alignment