Skywork-Math : Les lois de mise Ă l'Ă©chelle des donnĂ©es pour le raisonnement mathĂ©matique dans les grands modĂšles de langage â L'histoire continueSkywork-Math: Data Scaling Laws for Mathematical Reasoning in Large
Language Models -- The Story Goes On
Dans cet article, nous Ă©tudions les facteurs sous-jacents susceptibles d'amĂ©liorer les capacitĂ©s de raisonnement mathĂ©matique des grands modĂšles de langage (LLMs). Nous soutenons que la loi d'Ă©chelle des donnĂ©es pour les capacitĂ©s de raisonnement mathĂ©matique dans les LLMs modernes est loin d'ĂȘtre saturĂ©e, mettant en Ă©vidence comment la qualitĂ© du modĂšle s'amĂ©liore avec l'augmentation de la quantitĂ© de donnĂ©es. Pour Ă©tayer cette affirmation, nous prĂ©sentons la sĂ©rie de modĂšles Skywork-Math, fine-tunĂ©e de maniĂšre supervisĂ©e (SFT) sur des LLMs 7B courants en utilisant notre jeu de donnĂ©es Skywork-MathQA de 2,5 millions d'instances. Skywork-Math 7B a atteint des prĂ©cisions impressionnantes de 51,2 % sur le benchmark compĂ©titif MATH et 83,9 % sur le benchmark GSM8K en utilisant uniquement des donnĂ©es SFT, surpassant une version prĂ©coce de GPT-4 sur MATH. La performance supĂ©rieure des modĂšles Skywork-Math est attribuable Ă nos pipelines novateurs de synthĂšse de donnĂ©es en deux Ă©tapes et de SFT de modĂšle, qui incluent trois mĂ©thodes d'augmentation diffĂ©rentes et un ensemble diversifiĂ© de problĂšmes de dĂ©part, garantissant Ă la fois la quantitĂ© et la qualitĂ© du jeu de donnĂ©es Skywork-MathQA Ă diffĂ©rents niveaux de difficultĂ©. Plus important encore, nous fournissons plusieurs enseignements pratiques pour amĂ©liorer les capacitĂ©s de raisonnement mathĂ©matique des LLMs, tant pour la recherche que pour les applications industrielles.