ChatPaper.aiChatPaper

DPO Controlado por Pasos: Aprovechamiento de Errores Graduales para un Razonamiento Matemático Mejorado

Step-Controlled DPO: Leveraging Stepwise Error for Enhanced Mathematical Reasoning

June 30, 2024
Autores: Zimu Lu, Aojun Zhou, Ke Wang, Houxing Ren, Weikang Shi, Junting Pan, Mingjie Zhan
cs.AI

Resumen

La Optimización Directa de Preferencias (DPO, por sus siglas en inglés) ha demostrado ser efectiva para mejorar el rendimiento de los modelos de lenguaje de gran escala (LLMs) en tareas posteriores como el razonamiento y la alineación. En este trabajo, proponemos la Optimización Directa de Preferencias Controlada por Pasos (SCDPO), un método que proporciona automáticamente supervisión de errores paso a paso mediante la creación de muestras negativas de razonamientos matemáticos que comienzan a cometer errores en un paso específico. Al aplicar estas muestras en el entrenamiento de DPO, SCDPO puede alinear mejor el modelo para comprender los errores de razonamiento y generar pasos de razonamiento precisos. Aplicamos SCDPO tanto a soluciones integradas con código como a soluciones de cadena de pensamiento, demostrando empíricamente que mejora consistentemente el rendimiento en comparación con DPO básico en tres modelos SFT diferentes, incluyendo un modelo SFT existente y dos modelos que ajustamos. Un análisis cualitativo de la asignación de créditos de SCDPO y DPO demuestra la efectividad de SCDPO para identificar errores en soluciones matemáticas. Luego, aplicamos SCDPO a un modelo InternLM2-20B, obteniendo un modelo de 20B que alcanza puntajes altos de 88.5% en GSM8K y 58.1% en MATH, rivalizando con todos los demás LLMs de código abierto, lo que muestra el gran potencial de nuestro método.
English
Direct Preference Optimization (DPO) has proven effective at improving the performance of large language models (LLMs) on downstream tasks such as reasoning and alignment. In this work, we propose Step-Controlled DPO (SCDPO), a method for automatically providing stepwise error supervision by creating negative samples of mathematical reasoning rationales that start making errors at a specified step. By applying these samples in DPO training, SCDPO can better align the model to understand reasoning errors and output accurate reasoning steps. We apply SCDPO to both code-integrated and chain-of-thought solutions, empirically showing that it consistently improves the performance compared to naive DPO on three different SFT models, including one existing SFT model and two models we finetuned. Qualitative analysis of the credit assignment of SCDPO and DPO demonstrates the effectiveness of SCDPO at identifying errors in mathematical solutions. We then apply SCDPO to an InternLM2-20B model, resulting in a 20B model that achieves high scores of 88.5% on GSM8K and 58.1% on MATH, rivaling all other open-source LLMs, showing the great potential of our method.

Summary

AI-Generated Summary

PDF264November 28, 2024