ChatPaper.aiChatPaper

Vers l'auto-amélioration des LLMs via MCTS : Exploitation de la connaissance pas à pas avec l'apprentissage des préférences de programme.

Towards Self-Improvement of LLMs via MCTS: Leveraging Stepwise Knowledge with Curriculum Preference Learning

October 9, 2024
Auteurs: Xiyao Wang, Linfeng Song, Ye Tian, Dian Yu, Baolin Peng, Haitao Mi, Furong Huang, Dong Yu
cs.AI

Résumé

La recherche arborescente Monte Carlo (Monte Carlo Tree Search ou MCTS) a récemment émergé comme une technique puissante pour améliorer les capacités de raisonnement des LLM. Des techniques telles que SFT ou DPO ont permis aux LLM de distiller des comportements de haute qualité à partir de MCTS, améliorant ainsi leurs performances de raisonnement. Cependant, les méthodes de distillation existantes sous-exploitent les riches informations de trajectoire générées par MCTS, limitant le potentiel d'amélioration du raisonnement des LLM. Dans cet article, nous proposons AlphaLLM-CPL, un nouveau cadre d'entraînement par paires qui permet aux LLM de s'améliorer par auto-distillation des comportements via MCTS. AlphaLLM-CPL exploite efficacement les trajectoires de MCTS grâce à deux innovations clés : (1) AlphaLLM-CPL construit des paires de trajectoires par étapes à partir des nœuds enfants partageant le même parent dans l'arbre de recherche, fournissant des informations au niveau des étapes pour une distillation de comportement MCTS plus efficace. (2) AlphaLLM-CPL introduit l'apprentissage de préférence de curriculum, ajustant dynamiquement la séquence d'entraînement des paires de trajectoires dans chaque époque d'entraînement hors ligne pour prioriser les étapes d'apprentissage critiques et atténuer le surajustement. Les résultats expérimentaux sur des tâches de raisonnement mathématique démontrent qu'AlphaLLM-CPL surpasse significativement les méthodes précédentes de distillation de comportement MCTS, renforçant considérablement les capacités de raisonnement des LLM.
English
Monte Carlo Tree Search (MCTS) has recently emerged as a powerful technique for enhancing the reasoning capabilities of LLMs. Techniques such as SFT or DPO have enabled LLMs to distill high-quality behaviors from MCTS, improving their reasoning performance. However, existing distillation methods underutilize the rich trajectory information generated by MCTS, limiting the potential for improvements in LLM reasoning. In this paper, we propose AlphaLLM-CPL, a novel pairwise training framework that enables LLMs to self-improve through MCTS behavior distillation. AlphaLLM-CPL efficiently leverages MCTS trajectories via two key innovations: (1) AlphaLLM-CPL constructs stepwise trajectory pairs from child nodes sharing the same parent in the search tree, providing step-level information for more effective MCTS behavior distillation. (2) AlphaLLM-CPL introduces curriculum preference learning, dynamically adjusting the training sequence of trajectory pairs in each offline training epoch to prioritize critical learning steps and mitigate overfitting. Experimental results on mathematical reasoning tasks demonstrate that AlphaLLM-CPL significantly outperforms previous MCTS behavior distillation methods, substantially boosting the reasoning capabilities of LLMs.

Summary

AI-Generated Summary

PDF102November 16, 2024