ChatPaper.aiChatPaper

Step-Controlled DPO: Gebruikmaken van Stapsgewijze Fouten voor Verbeterd Wiskundig Redeneren

Step-Controlled DPO: Leveraging Stepwise Error for Enhanced Mathematical Reasoning

June 30, 2024
Auteurs: Zimu Lu, Aojun Zhou, Ke Wang, Houxing Ren, Weikang Shi, Junting Pan, Mingjie Zhan
cs.AI

Samenvatting

Direct Preference Optimization (DPO) heeft zich bewezen als effectief voor het verbeteren van de prestaties van grote taalmodelen (LLMs) bij downstream taken zoals redeneren en afstemming. In dit werk stellen we Step-Controlled DPO (SCDPO) voor, een methode om automatisch stapsgewijze foutensupervisie te bieden door negatieve voorbeelden te creëren van wiskundige redeneerpatronen die vanaf een specifieke stap fouten beginnen te maken. Door deze voorbeelden toe te passen in DPO-training, kan SCDPO het model beter afstemmen om redeneerfouten te begrijpen en nauwkeurige redeneerstappen te produceren. We passen SCDPO toe op zowel code-geïntegreerde als chain-of-thought oplossingen, en tonen empirisch aan dat het consistent betere prestaties oplevert vergeleken met naïeve DPO op drie verschillende SFT-modellen, waaronder één bestaand SFT-model en twee modellen die we hebben gefinetuned. Kwalitatieve analyse van de krediettoewijzing van SCDPO en DPO toont de effectiviteit van SCDPO aan bij het identificeren van fouten in wiskundige oplossingen. Vervolgens passen we SCDPO toe op een InternLM2-20B model, wat resulteert in een 20B model dat hoge scores behaalt van 88,5% op GSM8K en 58,1% op MATH, en daarmee concurreert met alle andere open-source LLMs, wat het grote potentieel van onze methode aantoont.
English
Direct Preference Optimization (DPO) has proven effective at improving the performance of large language models (LLMs) on downstream tasks such as reasoning and alignment. In this work, we propose Step-Controlled DPO (SCDPO), a method for automatically providing stepwise error supervision by creating negative samples of mathematical reasoning rationales that start making errors at a specified step. By applying these samples in DPO training, SCDPO can better align the model to understand reasoning errors and output accurate reasoning steps. We apply SCDPO to both code-integrated and chain-of-thought solutions, empirically showing that it consistently improves the performance compared to naive DPO on three different SFT models, including one existing SFT model and two models we finetuned. Qualitative analysis of the credit assignment of SCDPO and DPO demonstrates the effectiveness of SCDPO at identifying errors in mathematical solutions. We then apply SCDPO to an InternLM2-20B model, resulting in a 20B model that achieves high scores of 88.5% on GSM8K and 58.1% on MATH, rivaling all other open-source LLMs, showing the great potential of our method.
PDF244February 8, 2026