Schrittgesteuerte DPO: Nutzung schrittweiser Fehler zur Verbesserung mathematischer Argumentation
Step-Controlled DPO: Leveraging Stepwise Error for Enhanced Mathematical Reasoning
June 30, 2024
Autoren: Zimu Lu, Aojun Zhou, Ke Wang, Houxing Ren, Weikang Shi, Junting Pan, Mingjie Zhan
cs.AI
Zusammenfassung
Die Direkte Präferenzoptimierung (DPO) hat sich als wirksam erwiesen, um die Leistung großer Sprachmodelle (LLMs) bei nachgelagerten Aufgaben wie Schlussfolgerungen und Ausrichtung zu verbessern. In dieser Arbeit schlagen wir Schrittgesteuerte DPO (SCDPO) vor, eine Methode zur automatischen Bereitstellung schrittweiser Fehlerüberwachung durch die Erstellung negativer Proben mathematischer Schlussfolgerungsbegründungen, die ab einem bestimmten Schritt Fehler machen. Durch die Anwendung dieser Proben im DPO-Training kann SCDPO das Modell besser auf die Erfassung von Schlussfehler ausrichten und genaue Schlussschritte ausgeben. Wir wenden SCDPO sowohl auf codeintegrierte als auch auf gedankliche Lösungen an und zeigen empirisch, dass es die Leistung im Vergleich zu naivem DPO bei drei verschiedenen SFT-Modellen, einschließlich eines vorhandenen SFT-Modells und zweier von uns feinabgestimmter Modelle, konsistent verbessert. Eine qualitative Analyse der Leistungszuweisung von SCDPO und DPO zeigt die Wirksamkeit von SCDPO bei der Identifizierung von Fehlern in mathematischen Lösungen. Anschließend wenden wir SCDPO auf ein InternLM2-20B-Modell an, was zu einem 20B-Modell führt, das hohe Punktzahlen von 88,5% bei GSM8K und 58,1% bei MATH erreicht und damit allen anderen Open-Source-LLMs Konkurrenz macht und das große Potenzial unserer Methode zeigt.
English
Direct Preference Optimization (DPO) has proven effective at improving the
performance of large language models (LLMs) on downstream tasks such as
reasoning and alignment. In this work, we propose Step-Controlled DPO (SCDPO),
a method for automatically providing stepwise error supervision by creating
negative samples of mathematical reasoning rationales that start making errors
at a specified step. By applying these samples in DPO training, SCDPO can
better align the model to understand reasoning errors and output accurate
reasoning steps. We apply SCDPO to both code-integrated and chain-of-thought
solutions, empirically showing that it consistently improves the performance
compared to naive DPO on three different SFT models, including one existing SFT
model and two models we finetuned. Qualitative analysis of the credit
assignment of SCDPO and DPO demonstrates the effectiveness of SCDPO at
identifying errors in mathematical solutions. We then apply SCDPO to an
InternLM2-20B model, resulting in a 20B model that achieves high scores of
88.5% on GSM8K and 58.1% on MATH, rivaling all other open-source LLMs, showing
the great potential of our method.Summary
AI-Generated Summary