ChatPaper.aiChatPaper

Condor: Улучшение выравнивания LLM с использованием синтеза данных, основанного на знаниях и их доработки.

Condor: Enhance LLM Alignment with Knowledge-Driven Data Synthesis and Refinement

January 21, 2025
Авторы: Maosong Cao, Taolin Zhang, Mo Li, Chuyu Zhang, Yunxin Liu, Haodong Duan, Songyang Zhang, Kai Chen
cs.AI

Аннотация

Качество данных для Обучения с Учителем с Тонкой Настройкой (SFT) играет критическую роль в улучшении разговорных возможностей Больших Языковых Моделей (LLM). Однако по мере усовершенствования LLM доступность высококачественных данных SFT, аннотированных людьми, становится значительным узким местом, требуя большей зависимости от синтетических данных для обучения. В данной работе мы представляем Condor, новую двухэтапную структуру генерации синтетических данных, которая включает в себя Древо Мировых Знаний и Саморефлексионное Усовершенствование для создания высококачественных данных SFT в масштабе. Наши экспериментальные результаты показывают, что базовая модель, настроенная только на 20 тыс. образцов, сгенерированных Condor, достигает более высокой производительности по сравнению с аналогами. Дополнительный этап усовершенствования в Condor дополнительно обеспечивает итеративное самосовершенствование для LLM на различных масштабах (до 72 млрд), подтверждая эффективность нашего подхода. Более того, наше исследование масштабирования для синтетических данных после обучения раскрывает значительный неисследованный потенциал для улучшения производительности, открывая перспективные пути для будущих исследований.
English
The quality of Supervised Fine-Tuning (SFT) data plays a critical role in enhancing the conversational capabilities of Large Language Models (LLMs). However, as LLMs become more advanced, the availability of high-quality human-annotated SFT data has become a significant bottleneck, necessitating a greater reliance on synthetic training data. In this work, we introduce Condor, a novel two-stage synthetic data generation framework that incorporates World Knowledge Tree and Self-Reflection Refinement to produce high-quality SFT data at scale. Our experimental results demonstrate that a base model fine-tuned on only 20K Condor-generated samples achieves superior performance compared to counterparts. The additional refinement stage in Condor further enables iterative self-improvement for LLMs at various scales (up to 72B), validating the effectiveness of our approach. Furthermore, our investigation into the scaling for synthetic data in post-training reveals substantial unexplored potential for performance improvements, opening promising avenues for future research.

Summary

AI-Generated Summary

PDF142January 22, 2025