ChatPaper.aiChatPaper

Schrittgesteuerte DPO: Nutzung schrittweiser Fehler zur Verbesserung mathematischer Argumentation

Step-Controlled DPO: Leveraging Stepwise Error for Enhanced Mathematical Reasoning

June 30, 2024
Autoren: Zimu Lu, Aojun Zhou, Ke Wang, Houxing Ren, Weikang Shi, Junting Pan, Mingjie Zhan
cs.AI

Zusammenfassung

Die Direkte Präferenzoptimierung (DPO) hat sich als wirksam erwiesen, um die Leistung großer Sprachmodelle (LLMs) bei nachgelagerten Aufgaben wie Schlussfolgerungen und Ausrichtung zu verbessern. In dieser Arbeit schlagen wir Schrittgesteuerte DPO (SCDPO) vor, eine Methode zur automatischen Bereitstellung schrittweiser Fehlerüberwachung durch die Erstellung negativer Proben mathematischer Schlussfolgerungsbegründungen, die ab einem bestimmten Schritt Fehler machen. Durch die Anwendung dieser Proben im DPO-Training kann SCDPO das Modell besser auf die Erfassung von Schlussfehler ausrichten und genaue Schlussschritte ausgeben. Wir wenden SCDPO sowohl auf codeintegrierte als auch auf gedankliche Lösungen an und zeigen empirisch, dass es die Leistung im Vergleich zu naivem DPO bei drei verschiedenen SFT-Modellen, einschließlich eines vorhandenen SFT-Modells und zweier von uns feinabgestimmter Modelle, konsistent verbessert. Eine qualitative Analyse der Leistungszuweisung von SCDPO und DPO zeigt die Wirksamkeit von SCDPO bei der Identifizierung von Fehlern in mathematischen Lösungen. Anschließend wenden wir SCDPO auf ein InternLM2-20B-Modell an, was zu einem 20B-Modell führt, das hohe Punktzahlen von 88,5% bei GSM8K und 58,1% bei MATH erreicht und damit allen anderen Open-Source-LLMs Konkurrenz macht und das große Potenzial unserer Methode zeigt.
English
Direct Preference Optimization (DPO) has proven effective at improving the performance of large language models (LLMs) on downstream tasks such as reasoning and alignment. In this work, we propose Step-Controlled DPO (SCDPO), a method for automatically providing stepwise error supervision by creating negative samples of mathematical reasoning rationales that start making errors at a specified step. By applying these samples in DPO training, SCDPO can better align the model to understand reasoning errors and output accurate reasoning steps. We apply SCDPO to both code-integrated and chain-of-thought solutions, empirically showing that it consistently improves the performance compared to naive DPO on three different SFT models, including one existing SFT model and two models we finetuned. Qualitative analysis of the credit assignment of SCDPO and DPO demonstrates the effectiveness of SCDPO at identifying errors in mathematical solutions. We then apply SCDPO to an InternLM2-20B model, resulting in a 20B model that achieves high scores of 88.5% on GSM8K and 58.1% on MATH, rivaling all other open-source LLMs, showing the great potential of our method.

Summary

AI-Generated Summary

PDF264November 28, 2024