ChatPaper.aiChatPaper

LongWriter: Liberando a Geração de Mais de 10.000 Palavras a partir de LLMs de Contexto Longo

LongWriter: Unleashing 10,000+ Word Generation from Long Context LLMs

August 13, 2024
Autores: Yushi Bai, Jiajie Zhang, Xin Lv, Linzhi Zheng, Siqi Zhu, Lei Hou, Yuxiao Dong, Jie Tang, Juanzi Li
cs.AI

Resumo

Os atuais modelos de linguagem de contexto longo (LLMs) podem processar entradas de até 100.000 tokens, no entanto, têm dificuldade em gerar saídas que excedam até mesmo um comprimento modesto de 2.000 palavras. Através de experimentos controlados, descobrimos que o comprimento efetivo de geração do modelo é inerentemente limitado pela amostra que ele viu durante o ajuste fino supervisionado (SFT). Em outras palavras, a limitação de sua saída se deve à escassez de exemplos de saída longos nos conjuntos de dados de SFT existentes. Para lidar com isso, introduzimos o AgentWrite, um pipeline baseado em agentes que decompõe tarefas de geração ultra longas em subtarefas, permitindo que os LLMs prontos para uso gerem saídas coerentes que excedem 20.000 palavras. Aproveitando o AgentWrite, construímos o LongWriter-6k, um conjunto de dados contendo 6.000 dados de SFT com comprimentos de saída variando de 2k a 32k palavras. Ao incorporar este conjunto de dados no treinamento do modelo, escalamos com sucesso o comprimento de saída dos modelos existentes para mais de 10.000 palavras, mantendo a qualidade da saída. Também desenvolvemos o LongBench-Write, um benchmark abrangente para avaliar as capacidades de geração ultra longas. Nosso modelo de 9 bilhões de parâmetros, ainda melhorado através de DPO, alcança um desempenho de ponta neste benchmark, superando até mesmo modelos proprietários muito maiores. Em geral, nosso trabalho demonstra que os LLMs de contexto longo existentes já possuem o potencial para uma janela de saída maior - tudo o que você precisa é de dados com saída estendida durante o alinhamento do modelo para desbloquear essa capacidade. Nosso código e modelos estão em: https://github.com/THUDM/LongWriter.
English
Current long context large language models (LLMs) can process inputs up to 100,000 tokens, yet struggle to generate outputs exceeding even a modest length of 2,000 words. Through controlled experiments, we find that the model's effective generation length is inherently bounded by the sample it has seen during supervised fine-tuning (SFT). In other words, their output limitation is due to the scarcity of long-output examples in existing SFT datasets. To address this, we introduce AgentWrite, an agent-based pipeline that decomposes ultra-long generation tasks into subtasks, enabling off-the-shelf LLMs to generate coherent outputs exceeding 20,000 words. Leveraging AgentWrite, we construct LongWriter-6k, a dataset containing 6,000 SFT data with output lengths ranging from 2k to 32k words. By incorporating this dataset into model training, we successfully scale the output length of existing models to over 10,000 words while maintaining output quality. We also develop LongBench-Write, a comprehensive benchmark for evaluating ultra-long generation capabilities. Our 9B parameter model, further improved through DPO, achieves state-of-the-art performance on this benchmark, surpassing even much larger proprietary models. In general, our work demonstrates that existing long context LLM already possesses the potential for a larger output window--all you need is data with extended output during model alignment to unlock this capability. Our code & models are at: https://github.com/THUDM/LongWriter.

Summary

AI-Generated Summary

PDF676November 28, 2024