ChatPaper.aiChatPaper

LongWriter: Liberando la Generación de Palabras de más de 10,000 Palabras a partir de LLMs de Contexto Largo

LongWriter: Unleashing 10,000+ Word Generation from Long Context LLMs

August 13, 2024
Autores: Yushi Bai, Jiajie Zhang, Xin Lv, Linzhi Zheng, Siqi Zhu, Lei Hou, Yuxiao Dong, Jie Tang, Juanzi Li
cs.AI

Resumen

Los modelos de lenguaje de contexto largo (LLMs) actuales pueden procesar entradas de hasta 100,000 tokens, pero tienen dificultades para generar salidas que superen incluso una longitud modesta de 2,000 palabras. A través de experimentos controlados, descubrimos que la longitud efectiva de generación del modelo está inherentemente limitada por la muestra que ha visto durante el ajuste fino supervisado (SFT). En otras palabras, su limitación de salida se debe a la escasez de ejemplos de salida largos en los conjuntos de datos existentes de SFT. Para abordar esto, presentamos AgentWrite, un pipeline basado en agentes que descompone tareas de generación ultra largas en subtareas, lo que permite a los LLMs listos para usar generar salidas coherentes que superan las 20,000 palabras. Aprovechando AgentWrite, creamos LongWriter-6k, un conjunto de datos que contiene 6,000 datos de SFT con longitudes de salida que van desde 2k hasta 32k palabras. Al incorporar este conjunto de datos en el entrenamiento del modelo, logramos escalar con éxito la longitud de salida de los modelos existentes a más de 10,000 palabras manteniendo la calidad de la salida. También desarrollamos LongBench-Write, un benchmark integral para evaluar las capacidades de generación ultra largas. Nuestro modelo de 9B parámetros, mejorado aún más a través de DPO, logra un rendimiento de vanguardia en este benchmark, superando incluso a modelos propietarios mucho más grandes. En general, nuestro trabajo demuestra que los LLMs de contexto largo existentes ya poseen el potencial para una ventana de salida más grande, todo lo que se necesita es datos con salida extendida durante el alineamiento del modelo para desbloquear esta capacidad. Nuestro código y modelos están en: https://github.com/THUDM/LongWriter.
English
Current long context large language models (LLMs) can process inputs up to 100,000 tokens, yet struggle to generate outputs exceeding even a modest length of 2,000 words. Through controlled experiments, we find that the model's effective generation length is inherently bounded by the sample it has seen during supervised fine-tuning (SFT). In other words, their output limitation is due to the scarcity of long-output examples in existing SFT datasets. To address this, we introduce AgentWrite, an agent-based pipeline that decomposes ultra-long generation tasks into subtasks, enabling off-the-shelf LLMs to generate coherent outputs exceeding 20,000 words. Leveraging AgentWrite, we construct LongWriter-6k, a dataset containing 6,000 SFT data with output lengths ranging from 2k to 32k words. By incorporating this dataset into model training, we successfully scale the output length of existing models to over 10,000 words while maintaining output quality. We also develop LongBench-Write, a comprehensive benchmark for evaluating ultra-long generation capabilities. Our 9B parameter model, further improved through DPO, achieves state-of-the-art performance on this benchmark, surpassing even much larger proprietary models. In general, our work demonstrates that existing long context LLM already possesses the potential for a larger output window--all you need is data with extended output during model alignment to unlock this capability. Our code & models are at: https://github.com/THUDM/LongWriter.

Summary

AI-Generated Summary

PDF676November 28, 2024