ChatPaper.aiChatPaper

LongWriter: Разблокирование генерации более 10 000 слов из долгих контекстных LLM.

LongWriter: Unleashing 10,000+ Word Generation from Long Context LLMs

August 13, 2024
Авторы: Yushi Bai, Jiajie Zhang, Xin Lv, Linzhi Zheng, Siqi Zhu, Lei Hou, Yuxiao Dong, Jie Tang, Juanzi Li
cs.AI

Аннотация

Современные модели языка с длинным контекстом (LLM) могут обрабатывать входные данные до 100 000 токенов, однако испытывают трудности при генерации выводов, превышающих даже скромную длину в 2 000 слов. Через контролируемые эксперименты мы обнаружили, что эффективная длина генерации модели по своей сути ограничена образцом, который она видела во время надзорной донастройки (SFT). Другими словами, их ограничение вывода обусловлено недостатком примеров длинных выводов в существующих наборах данных SFT. Для решения этой проблемы мы представляем AgentWrite, агентный конвейер, который декомпозирует ультрадлинные задачи генерации на подзадачи, позволяя стандартным LLM генерировать последовательные выводы, превышающие 20 000 слов. Используя AgentWrite, мы создаем набор данных LongWriter-6k, содержащий 6 000 данных SFT с длиной вывода от 2k до 32k слов. Интегрируя этот набор данных в обучение модели, мы успешно увеличиваем длину вывода существующих моделей до более чем 10 000 слов, сохраняя качество вывода. Мы также разрабатываем LongBench-Write, комплексный бенчмарк для оценки возможностей ультрадлинной генерации. Наша модель с 9 миллиардами параметров, дополнительно улучшенная через DPO, достигает передовых результатов на этом бенчмарке, превосходя даже гораздо более крупные собственные модели. В целом, наша работа демонстрирует, что существующие модели LLM с длинным контекстом уже обладают потенциалом для более широкого окна вывода - все, что вам нужно, это данные с расширенным выводом во время настройки модели для разблокирования этой возможности. Наш код и модели доступны по ссылке: https://github.com/THUDM/LongWriter.
English
Current long context large language models (LLMs) can process inputs up to 100,000 tokens, yet struggle to generate outputs exceeding even a modest length of 2,000 words. Through controlled experiments, we find that the model's effective generation length is inherently bounded by the sample it has seen during supervised fine-tuning (SFT). In other words, their output limitation is due to the scarcity of long-output examples in existing SFT datasets. To address this, we introduce AgentWrite, an agent-based pipeline that decomposes ultra-long generation tasks into subtasks, enabling off-the-shelf LLMs to generate coherent outputs exceeding 20,000 words. Leveraging AgentWrite, we construct LongWriter-6k, a dataset containing 6,000 SFT data with output lengths ranging from 2k to 32k words. By incorporating this dataset into model training, we successfully scale the output length of existing models to over 10,000 words while maintaining output quality. We also develop LongBench-Write, a comprehensive benchmark for evaluating ultra-long generation capabilities. Our 9B parameter model, further improved through DPO, achieves state-of-the-art performance on this benchmark, surpassing even much larger proprietary models. In general, our work demonstrates that existing long context LLM already possesses the potential for a larger output window--all you need is data with extended output during model alignment to unlock this capability. Our code & models are at: https://github.com/THUDM/LongWriter.

Summary

AI-Generated Summary

PDF676November 28, 2024