Flow-DPO: Улучшение математического мышления LLM через онлайн-обучение многих агентов.
Flow-DPO: Improving LLM Mathematical Reasoning through Online Multi-Agent Learning
October 29, 2024
Авторы: Yihe Deng, Paul Mineiro
cs.AI
Аннотация
Математическое мышление является ключевой способностью для больших языковых моделей (LLM), однако создание подробных и точных следов рассуждений остается значительной проблемой. В данной статье представлен новый подход к созданию высококачественных следов рассуждений для настройки LLM с использованием потоков онлайн-обучения. Наш метод использует инкрементный поток производства вывода, где компоненты LLM совместно разрабатывают решения через итеративное взаимодействие. Мы обучаем поток с использованием онлайн-оптимизации прямого предпочтения (DPO) с прокрутками, генерируя пары DPO для каждого обучающего примера и обновляя модели в реальном времени. Мы непосредственно сравниваем качество следов рассуждений, созданных нашим методом, с теми, которые производятся через прямое вывод модели, демонстрируя эффективность нашего подхода в улучшении производительности LLM в задачах математического рассуждения.
English
Mathematical reasoning is a crucial capability for Large Language Models
(LLMs), yet generating detailed and accurate reasoning traces remains a
significant challenge. This paper introduces a novel approach to produce
high-quality reasoning traces for LLM fine-tuning using online learning
Flows. Our method employs an incremental output production Flow, where
component LLMs collaboratively construct solutions through iterative
communication. We train the Flow using online Direct Preference Optimization
(DPO) learning with rollouts, generating DPO pairs for each training example
and updating models in real-time. We directly compare the quality of reasoning
traces generated by our method with those produced through direct model
inference, demonstrating the effectiveness of our approach in improving LLM
performance in mathematical reasoning tasks.Summary
AI-Generated Summary