ChatPaper.aiChatPaper

Au-delà du « Aha ! » : Vers un alignement systématique des méta-capacités dans les grands modèles de raisonnement

Beyond 'Aha!': Toward Systematic Meta-Abilities Alignment in Large Reasoning Models

May 15, 2025
Auteurs: Zhiyuan Hu, Yibo Wang, Hanze Dong, Yuhui Xu, Amrita Saha, Caiming Xiong, Bryan Hooi, Junnan Li
cs.AI

Résumé

Les grands modèles de raisonnement (LRMs) possèdent déjà une capacité latente pour les chaînes de raisonnement longues et complexes. Des travaux antérieurs ont montré que l'apprentissage par renforcement (RL) basé sur les résultats peut susciter de manière incidente des comportements de raisonnement avancés tels que l'autocorrection, le retour en arrière et les phénomènes de vérification, souvent qualifiés de « moment eurêka » du modèle. Cependant, le moment d'apparition et la cohérence de ces comportements émergents restent imprévisibles et incontrôlables, limitant ainsi l'évolutivité et la fiabilité des capacités de raisonnement des LRMs. Pour surmonter ces limitations, nous dépassons la dépendance aux incitations et aux « moments eurêka » fortuits. À la place, nous alignons explicitement les modèles sur trois méta-capacités : la déduction, l'induction et l'abduction, en utilisant des tâches auto-vérifiables générées automatiquement. Notre pipeline en trois étapes — alignement individuel, fusion de l'espace des paramètres et apprentissage par renforcement spécifique au domaine — améliore les performances de plus de 10 % par rapport aux modèles de référence ajustés par instruction. De plus, l'apprentissage par renforcement spécifique au domaine à partir du point de contrôle aligné entraîne un gain moyen supplémentaire de 2 % dans le plafond de performance sur des benchmarks en mathématiques, codage et sciences, démontrant ainsi que l'alignement explicite des méta-capacités offre une base évolutive et fiable pour le raisonnement. Le code est disponible à l'adresse suivante : https://github.com/zhiyuanhubj/Meta-Ability-Alignment
English
Large reasoning models (LRMs) already possess a latent capacity for long chain-of-thought reasoning. Prior work has shown that outcome-based reinforcement learning (RL) can incidentally elicit advanced reasoning behaviors such as self-correction, backtracking, and verification phenomena often referred to as the model's "aha moment". However, the timing and consistency of these emergent behaviors remain unpredictable and uncontrollable, limiting the scalability and reliability of LRMs' reasoning capabilities. To address these limitations, we move beyond reliance on prompts and coincidental "aha moments". Instead, we explicitly align models with three meta-abilities: deduction, induction, and abduction, using automatically generated, self-verifiable tasks. Our three stage-pipeline individual alignment, parameter-space merging, and domain-specific reinforcement learning, boosting performance by over 10\% relative to instruction-tuned baselines. Furthermore, domain-specific RL from the aligned checkpoint yields an additional 2\% average gain in the performance ceiling across math, coding, and science benchmarks, demonstrating that explicit meta-ability alignment offers a scalable and dependable foundation for reasoning. Code is available at: https://github.com/zhiyuanhubj/Meta-Ability-Alignment

Summary

AI-Generated Summary

PDF813May 16, 2025