ChatPaper.aiChatPaper

Xwin-LM: Сильная и масштабируемая практика выравнивания для LLM.

Xwin-LM: Strong and Scalable Alignment Practice for LLMs

May 30, 2024
Авторы: Bolin Ni, JingCheng Hu, Yixuan Wei, Houwen Peng, Zheng Zhang, Gaofeng Meng, Han Hu
cs.AI

Аннотация

В данной работе мы представляем Xwin-LM, комплексный набор методик выравнивания для крупных языковых моделей (LLM). Этот набор включает в себя несколько ключевых техник, включая надзорное донастройку (SFT), моделирование вознаграждения (RM), донастройку методом отбора (RS) и прямую оптимизацию предпочтений (DPO). Ключевые компоненты следующие: (1) Xwin-LM-SFT, модели изначально донастраиваются с использованием данных высокого качества; (2) Xwin-Pair, крупномасштабный многоповоротный набор данных предпочтений, тщательно аннотированный с помощью GPT-4; (3) Xwin-RM, модели вознаграждения, обученные на Xwin-Pair, разработанные в масштабах 7 млрд, 13 млрд и 70 млрд параметров; (4) Xwin-Set, многопредпочтительный набор данных, в котором каждое подсказывание связано с 64 уникальными ответами, сгенерированными Xwin-LM-SFT и оцененными Xwin-RM; (5) Xwin-LM-RS, модели донастраиваются с использованием ответов с наивысшими баллами из Xwin-Set; (6) Xwin-LM-DPO, модели дополнительно оптимизируются на Xwin-Set с использованием алгоритма DPO. Наши оценки на AlpacaEval и MT-bench демонстрируют последовательные и значительные улучшения по всему процессу, подтверждая силу и масштабируемость Xwin-LM. Репозиторий https://github.com/Xwin-LM/Xwin-LM будет постоянно обновляться для содействия исследованиям сообщества.
English
In this work, we present Xwin-LM, a comprehensive suite of alignment methodologies for large language models (LLMs). This suite encompasses several key techniques, including supervised finetuning (SFT), reward modeling (RM), rejection sampling finetuning (RS), and direct preference optimization (DPO). The key components are as follows: (1) Xwin-LM-SFT, models initially finetuned with high-quality instruction data; (2) Xwin-Pair, a large-scale, multi-turn preference dataset meticulously annotated using GPT-4; (3) Xwin-RM, reward models trained on Xwin-Pair, developed at scales of 7B, 13B, and 70B parameters; (4) Xwin-Set, a multiwise preference dataset in which each prompt is linked to 64 unique responses generated by Xwin-LM-SFT and scored by Xwin-RM; (5) Xwin-LM-RS, models finetuned with the highest-scoring responses from Xwin-Set; (6) Xwin-LM-DPO, models further optimized on Xwin-Set using the DPO algorithm. Our evaluations on AlpacaEval and MT-bench demonstrate consistent and significant improvements across the pipeline, demonstrating the strength and scalability of Xwin-LM. The repository https://github.com/Xwin-LM/Xwin-LM will be continually updated to foster community research.

Summary

AI-Generated Summary

PDF191December 12, 2024