DPO Controlado por Etapas: Aproveitando o Erro Gradual para Aprimorar o Raciocínio Matemático
Step-Controlled DPO: Leveraging Stepwise Error for Enhanced Mathematical Reasoning
June 30, 2024
Autores: Zimu Lu, Aojun Zhou, Ke Wang, Houxing Ren, Weikang Shi, Junting Pan, Mingjie Zhan
cs.AI
Resumo
A Otimização Direta de Preferência (ODP) tem se mostrado eficaz na melhoria do desempenho de grandes modelos de linguagem (MLs) em tarefas subsequentes, como raciocínio e alinhamento. Neste trabalho, propomos a Otimização Direta de Preferência Controlada por Etapas (ODPCE), um método para fornecer automaticamente supervisão de erros por etapas, criando amostras negativas de justificativas de raciocínio matemático que começam a cometer erros em uma etapa especificada. Ao aplicar essas amostras no treinamento de ODP, a ODPCE pode alinhar melhor o modelo para entender erros de raciocínio e produzir etapas de raciocínio precisas. Aplicamos a ODPCE tanto a soluções integradas a código quanto a soluções em cadeia de pensamento, mostrando empiricamente que ela melhora consistentemente o desempenho em comparação com a ODP ingênua em três modelos diferentes de SFT, incluindo um modelo de SFT existente e dois modelos que ajustamos. A análise qualitativa da atribuição de crédito da ODPCE e da ODP demonstra a eficácia da ODPCE na identificação de erros em soluções matemáticas. Em seguida, aplicamos a ODPCE a um modelo InternLM2-20B, resultando em um modelo de 20B que alcança altas pontuações de 88,5% no GSM8K e 58,1% no MATH, rivalizando com todos os outros MLs de código aberto, mostrando o grande potencial de nosso método.
English
Direct Preference Optimization (DPO) has proven effective at improving the
performance of large language models (LLMs) on downstream tasks such as
reasoning and alignment. In this work, we propose Step-Controlled DPO (SCDPO),
a method for automatically providing stepwise error supervision by creating
negative samples of mathematical reasoning rationales that start making errors
at a specified step. By applying these samples in DPO training, SCDPO can
better align the model to understand reasoning errors and output accurate
reasoning steps. We apply SCDPO to both code-integrated and chain-of-thought
solutions, empirically showing that it consistently improves the performance
compared to naive DPO on three different SFT models, including one existing SFT
model and two models we finetuned. Qualitative analysis of the credit
assignment of SCDPO and DPO demonstrates the effectiveness of SCDPO at
identifying errors in mathematical solutions. We then apply SCDPO to an
InternLM2-20B model, resulting in a 20B model that achieves high scores of
88.5% on GSM8K and 58.1% on MATH, rivaling all other open-source LLMs, showing
the great potential of our method.