Управляемый шагами DPO: Использование пошаговой ошибки для улучшенного математического рассуждения
Step-Controlled DPO: Leveraging Stepwise Error for Enhanced Mathematical Reasoning
June 30, 2024
Авторы: Zimu Lu, Aojun Zhou, Ke Wang, Houxing Ren, Weikang Shi, Junting Pan, Mingjie Zhan
cs.AI
Аннотация
Прямая оптимизация предпочтений (Direct Preference Optimization, DPO) доказала свою эффективность в улучшении производительности больших моделей языка (Large Language Models, LLMs) на последующих задачах, таких как рассуждения и выравнивание. В данной работе мы предлагаем Шагово-Контролируемую Прямую Оптимизацию Предпочтений (Step-Controlled DPO, SCDPO), метод автоматического предоставления пошагового контроля ошибок путем создания отрицательных образцов рационалей математических рассуждений, начиная с ошибок на определенном шаге. Применяя эти образцы в обучении DPO, SCDPO может лучше выравнивать модель для понимания ошибок в рассуждениях и вывода точных шагов рассуждений. Мы применяем SCDPO как к решениям с интегрированным кодом, так и к последовательным решениям, эмпирически показывая, что он последовательно улучшает производительность по сравнению с наивной DPO на трех различных моделях SFT, включая одну существующую модель SFT и две модели, которые мы донастраивали. Качественный анализ присвоения кредитов SCDPO и DPO демонстрирует эффективность SCDPO в выявлении ошибок в математических решениях. Затем мы применяем SCDPO к модели InternLM2-20B, что приводит к модели 20B, достигающей высоких результатов 88.5% на GSM8K и 58.1% на MATH, конкурируя со всеми другими открытыми LLMs, показывая великий потенциал нашего метода.
English
Direct Preference Optimization (DPO) has proven effective at improving the
performance of large language models (LLMs) on downstream tasks such as
reasoning and alignment. In this work, we propose Step-Controlled DPO (SCDPO),
a method for automatically providing stepwise error supervision by creating
negative samples of mathematical reasoning rationales that start making errors
at a specified step. By applying these samples in DPO training, SCDPO can
better align the model to understand reasoning errors and output accurate
reasoning steps. We apply SCDPO to both code-integrated and chain-of-thought
solutions, empirically showing that it consistently improves the performance
compared to naive DPO on three different SFT models, including one existing SFT
model and two models we finetuned. Qualitative analysis of the credit
assignment of SCDPO and DPO demonstrates the effectiveness of SCDPO at
identifying errors in mathematical solutions. We then apply SCDPO to an
InternLM2-20B model, resulting in a 20B model that achieves high scores of
88.5% on GSM8K and 58.1% on MATH, rivaling all other open-source LLMs, showing
the great potential of our method.Summary
AI-Generated Summary