Weaver: Modelos Fundacionales para la Escritura Creativa
Weaver: Foundation Models for Creative Writing
January 30, 2024
Autores: Tiannan Wang, Jiamin Chen, Qingrui Jia, Shuai Wang, Ruoyu Fang, Huilin Wang, Zhaowei Gao, Chunzhao Xie, Chuou Xu, Jihong Dai, Yibin Liu, Jialong Wu, Shengwei Ding, Long Li, Zhiwei Huang, Xinle Deng, Teng Yu, Gangan Ma, Han Xiao, Zixin Chen, Danjun Xiang, Yunxia Wang, Yuanyuan Zhu, Yi Xiao, Jing Wang, Yiru Wang, Siran Ding, Jiayang Huang, Jiayi Xu, Yilihamu Tayier, Zhenyu Hu, Yuan Gao, Chengfeng Zheng, Yueshu Ye, Yihang Li, Lei Wan, Xinyue Jiang, Yujie Wang, Siyu Cheng, Zhule Song, Xiangru Tang, Xiaohua Xu, Ningyu Zhang, Huajun Chen, Yuchen Eleanor Jiang, Wangchunshu Zhou
cs.AI
Resumen
Este trabajo presenta Weaver, nuestra primera familia de modelos de lenguaje de gran escala (LLMs) dedicada a la creación de contenido. Weaver se pre-entrena en un corpus cuidadosamente seleccionado que se enfoca en mejorar las capacidades de escritura de los modelos de lenguaje de gran escala. Luego, afinamos Weaver para fines de escritura creativa y profesional y lo alineamos con las preferencias de escritores profesionales utilizando un conjunto de métodos novedosos para la síntesis de datos de instrucción y la alineación de LLMs, lo que le permite producir textos más humanos y seguir instrucciones más diversas para la creación de contenido. La familia Weaver consta de modelos de los tamaños Weaver Mini (1.8B), Weaver Base (6B), Weaver Pro (14B) y Weaver Ultra (34B), adecuados para diferentes aplicaciones y que pueden ser despachados dinámicamente por un agente de enrutamiento según la complejidad de la consulta para equilibrar la calidad de la respuesta y el costo computacional. La evaluación en un benchmark cuidadosamente seleccionado para evaluar las capacidades de escritura de los LLMs muestra que los modelos Weaver de todos los tamaños superan a los LLMs generalistas varias veces más grandes que ellos. Notablemente, nuestro modelo más capaz, Weaver Ultra, supera a GPT-4, un LLM generalista de última generación, en varios escenarios de escritura, demostrando la ventaja de entrenar LLMs especializados para propósitos de escritura. Además, Weaver admite de forma nativa la generación aumentada por recuperación (RAG) y la llamada de funciones (uso de herramientas). Presentamos varios casos de uso de estas capacidades para mejorar los sistemas de escritura asistida por IA, incluyendo la integración de bases de conocimiento externas, herramientas o APIs, y la provisión de asistencia de escritura personalizada. Además, discutimos y resumimos una guía y mejores prácticas para el pre-entrenamiento y afinamiento de LLMs específicos de dominio.
English
This work introduces Weaver, our first family of large language models (LLMs)
dedicated to content creation. Weaver is pre-trained on a carefully selected
corpus that focuses on improving the writing capabilities of large language
models. We then fine-tune Weaver for creative and professional writing purposes
and align it to the preference of professional writers using a suit of novel
methods for instruction data synthesis and LLM alignment, making it able to
produce more human-like texts and follow more diverse instructions for content
creation. The Weaver family consists of models of Weaver Mini (1.8B), Weaver
Base (6B), Weaver Pro (14B), and Weaver Ultra (34B) sizes, suitable for
different applications and can be dynamically dispatched by a routing agent
according to query complexity to balance response quality and computation cost.
Evaluation on a carefully curated benchmark for assessing the writing
capabilities of LLMs shows Weaver models of all sizes outperform generalist
LLMs several times larger than them. Notably, our most-capable Weaver Ultra
model surpasses GPT-4, a state-of-the-art generalist LLM, on various writing
scenarios, demonstrating the advantage of training specialized LLMs for writing
purposes. Moreover, Weaver natively supports retrieval-augmented generation
(RAG) and function calling (tool usage). We present various use cases of these
abilities for improving AI-assisted writing systems, including integration of
external knowledge bases, tools, or APIs, and providing personalized writing
assistance. Furthermore, we discuss and summarize a guideline and best
practices for pre-training and fine-tuning domain-specific LLMs.