Apprentissage par Renforcement pour le Raisonnement dans les Grands Modèles de Langage avec un Seul Exemple d'EntraînementReinforcement Learning for Reasoning in Large Language Models with One
Training Example
Nous démontrons que l'apprentissage par renforcement avec récompense vérifiable utilisant un seul exemple d'entraînement (RLVR en 1-shot) est efficace pour stimuler les capacités de raisonnement mathématique des grands modèles de langage (LLMs). En appliquant RLVR au modèle de base Qwen2.5-Math-1.5B, nous identifions un seul exemple qui améliore les performances du modèle sur MATH500 de 36,0 % à 73,6 %, et augmente la performance moyenne sur six benchmarks courants de raisonnement mathématique de 17,6 % à 35,7 %. Ce résultat correspond aux performances obtenues en utilisant le sous-ensemble DeepScaleR de 1,2k exemples (MATH500 : 73,6 %, moyenne : 35,9 %), qui inclut l'exemple mentionné. Des améliorations substantielles similaires sont observées sur divers modèles (Qwen2.5-Math-7B, Llama3.2-3B-Instruct, DeepSeek-R1-Distill-Qwen-1.5B), algorithmes de RL (GRPO et PPO), et différents exemples mathématiques (dont beaucoup entraînent une amélioration d'environ 30 % ou plus sur MATH500 lorsqu'ils sont utilisés comme unique exemple d'entraînement). De plus, nous identifions des phénomènes intéressants lors du RLVR en 1-shot, notamment la généralisation inter-domaines, une fréquence accrue d'auto-réflexion, et une amélioration soutenue des performances en test même après que la précision en entraînement a saturé, un phénomène que nous appelons généralisation post-saturation. Par ailleurs, nous vérifions que l'efficacité du RLVR en 1-shot découle principalement de la perte de gradient de politique, la distinguant ainsi du phénomène de "grokking". Nous montrons également le rôle crucial de la promotion de l'exploration (par exemple, en ajoutant une perte d'entropie avec un coefficient approprié) dans l'entraînement RLVR en 1-shot. En bonus, nous observons que l'application de la perte d'entropie seule, sans aucune récompense de résultat, améliore significativement les performances de Qwen2.5-Math-1.5B sur MATH500 de 27,4 %. Ces résultats peuvent inspirer des travaux futurs sur l'efficacité des données en RLVR et encourager un réexamen des progrès récents ainsi que des mécanismes sous-jacents en RLVR. Notre code, modèle et données sont open source à l'adresse https://github.com/ypwang61/One-Shot-RLVR.