rStar-Math: Kleine LLM's kunnen wiskundig redeneren beheersen met zelf geëvolueerd diep denkenrStar-Math: Small LLMs Can Master Math Reasoning with Self-Evolved Deep
Thinking
We presenteren rStar-Math om aan te tonen dat kleine taalmodellen (SLM's) de wiskundige redeneervaardigheid van OpenAI o1 kunnen evenaren of zelfs overtreffen, zonder distillatie van superieure modellen. rStar-Math bereikt dit door "diep denken" toe te passen via Monte Carlo Tree Search (MCTS), waarbij een wiskundig beleids-SLM testtijdzoekopdrachten uitvoert die worden geleid door een op SLM gebaseerd procesbeloningsmodel. rStar-Math introduceert drie innovaties om de uitdagingen bij het trainen van de twee SLM's aan te pakken: (1) een nieuw code-verrijkt CoT-gegevenssynthesemethode, die uitgebreide MCTS-rollouts uitvoert om stapsgewijs geverifieerde redeneertrajecten te genereren die worden gebruikt om het beleids-SLM te trainen; (2) een nieuwe methode voor het trainen van het procesbeloningsmodel die naïeve annotatie op stapniveau vermijdt, resulterend in een effectiever procesvoorkeursmodel (PPM); (3) een zelfevolutierecept waarbij het beleids-SLM en PPM vanaf nul worden opgebouwd en iteratief worden geëvolueerd om redeneervaardigheden te verbeteren. Door 4 rondes van zelfevolutie met miljoenen gesynthetiseerde oplossingen voor 747k wiskundige problemen, verbetert rStar-Math de wiskundige redenering van SLM's tot state-of-the-art niveaus. Op de MATH-benchmark verbetert het Qwen2.5-Math-7B van 58,8% naar 90,0% en Phi3-mini-3.8B van 41,4% naar 86,4%, waarbij het o1-preview overtreft met +4,5% en +0,9%. Op de USA Math Olympiad (AIME) lost rStar-Math gemiddeld 53,3% (8/15) van de problemen op, waarmee het behoort tot de top 20% van de meest getalenteerde middelbare school wiskundestudenten. Code en gegevens zijn beschikbaar op https://github.com/microsoft/rStar.