Step-Controlled DPO: Gebruikmaken van Stapsgewijze Fouten voor Verbeterd Wiskundig Redeneren
Step-Controlled DPO: Leveraging Stepwise Error for Enhanced Mathematical Reasoning
June 30, 2024
Auteurs: Zimu Lu, Aojun Zhou, Ke Wang, Houxing Ren, Weikang Shi, Junting Pan, Mingjie Zhan
cs.AI
Samenvatting
Direct Preference Optimization (DPO) heeft zich bewezen als effectief voor het verbeteren van de prestaties van grote taalmodelen (LLMs) bij downstream taken zoals redeneren en afstemming. In dit werk stellen we Step-Controlled DPO (SCDPO) voor, een methode om automatisch stapsgewijze foutensupervisie te bieden door negatieve voorbeelden te creëren van wiskundige redeneerpatronen die vanaf een specifieke stap fouten beginnen te maken. Door deze voorbeelden toe te passen in DPO-training, kan SCDPO het model beter afstemmen om redeneerfouten te begrijpen en nauwkeurige redeneerstappen te produceren. We passen SCDPO toe op zowel code-geïntegreerde als chain-of-thought oplossingen, en tonen empirisch aan dat het consistent betere prestaties oplevert vergeleken met naïeve DPO op drie verschillende SFT-modellen, waaronder één bestaand SFT-model en twee modellen die we hebben gefinetuned. Kwalitatieve analyse van de krediettoewijzing van SCDPO en DPO toont de effectiviteit van SCDPO aan bij het identificeren van fouten in wiskundige oplossingen. Vervolgens passen we SCDPO toe op een InternLM2-20B model, wat resulteert in een 20B model dat hoge scores behaalt van 88,5% op GSM8K en 58,1% op MATH, en daarmee concurreert met alle andere open-source LLMs, wat het grote potentieel van onze methode aantoont.
English
Direct Preference Optimization (DPO) has proven effective at improving the
performance of large language models (LLMs) on downstream tasks such as
reasoning and alignment. In this work, we propose Step-Controlled DPO (SCDPO),
a method for automatically providing stepwise error supervision by creating
negative samples of mathematical reasoning rationales that start making errors
at a specified step. By applying these samples in DPO training, SCDPO can
better align the model to understand reasoning errors and output accurate
reasoning steps. We apply SCDPO to both code-integrated and chain-of-thought
solutions, empirically showing that it consistently improves the performance
compared to naive DPO on three different SFT models, including one existing SFT
model and two models we finetuned. Qualitative analysis of the credit
assignment of SCDPO and DPO demonstrates the effectiveness of SCDPO at
identifying errors in mathematical solutions. We then apply SCDPO to an
InternLM2-20B model, resulting in a 20B model that achieves high scores of
88.5% on GSM8K and 58.1% on MATH, rivaling all other open-source LLMs, showing
the great potential of our method.