Jenseits von 'Aha!': Auf dem Weg zur systematischen Ausrichtung von Meta-Fähigkeiten in großen Denkmodellen
Beyond 'Aha!': Toward Systematic Meta-Abilities Alignment in Large Reasoning Models
May 15, 2025
Autoren: Zhiyuan Hu, Yibo Wang, Hanze Dong, Yuhui Xu, Amrita Saha, Caiming Xiong, Bryan Hooi, Junnan Li
cs.AI
Zusammenfassung
Große Reasoning-Modelle (LRMs) verfügen bereits über eine latente Fähigkeit zur langen Kettenlogik. Frühere Arbeiten haben gezeigt, dass ergebnisbasiertes Reinforcement Learning (RL) fortgeschrittene Reasoning-Verhaltensweisen wie Selbstkorrektur, Rückverfolgung und Verifikationsphänomene, oft als „Aha-Moment“ des Modells bezeichnet, zufällig hervorrufen kann. Der Zeitpunkt und die Konsistenz dieser emergenten Verhaltensweisen bleiben jedoch unvorhersehbar und unkontrollierbar, was die Skalierbarkeit und Zuverlässigkeit der Reasoning-Fähigkeiten von LRMs einschränkt. Um diese Einschränkungen zu überwinden, gehen wir über die Abhängigkeit von Prompts und zufälligen „Aha-Momenten“ hinaus. Stattdessen richten wir Modelle explizit auf drei Meta-Fähigkeiten aus: Deduktion, Induktion und Abduktion, indem wir automatisch generierte, selbstüberprüfbare Aufgaben verwenden. Unsere dreistufige Pipeline – individuelle Ausrichtung, Parameterraum-Zusammenführung und domänenspezifisches Reinforcement Learning – steigert die Leistung um über 10 % im Vergleich zu instruktionsoptimierten Baselines. Darüber hinaus erzielt domänenspezifisches RL vom ausgerichteten Checkpoint einen zusätzlichen durchschnittlichen Leistungszuwachs von 2 % in den Leistungsgrenzen über Mathematik-, Programmier- und Wissenschafts-Benchmarks, was zeigt, dass die explizite Ausrichtung auf Meta-Fähigkeiten eine skalierbare und zuverlässige Grundlage für Reasoning bietet. Der Code ist verfügbar unter: https://github.com/zhiyuanhubj/Meta-Ability-Alignment.
English
Large reasoning models (LRMs) already possess a latent capacity for long
chain-of-thought reasoning. Prior work has shown that outcome-based
reinforcement learning (RL) can incidentally elicit advanced reasoning
behaviors such as self-correction, backtracking, and verification phenomena
often referred to as the model's "aha moment". However, the timing and
consistency of these emergent behaviors remain unpredictable and
uncontrollable, limiting the scalability and reliability of LRMs' reasoning
capabilities. To address these limitations, we move beyond reliance on prompts
and coincidental "aha moments". Instead, we explicitly align models with three
meta-abilities: deduction, induction, and abduction, using automatically
generated, self-verifiable tasks. Our three stage-pipeline individual
alignment, parameter-space merging, and domain-specific reinforcement learning,
boosting performance by over 10\% relative to instruction-tuned baselines.
Furthermore, domain-specific RL from the aligned checkpoint yields an
additional 2\% average gain in the performance ceiling across math, coding, and
science benchmarks, demonstrating that explicit meta-ability alignment offers a
scalable and dependable foundation for reasoning. Code is available at:
https://github.com/zhiyuanhubj/Meta-Ability-AlignmentSummary
AI-Generated Summary