Weaver: Fundamentmodellen voor Creatief Schrijven
Weaver: Foundation Models for Creative Writing
January 30, 2024
Auteurs: Tiannan Wang, Jiamin Chen, Qingrui Jia, Shuai Wang, Ruoyu Fang, Huilin Wang, Zhaowei Gao, Chunzhao Xie, Chuou Xu, Jihong Dai, Yibin Liu, Jialong Wu, Shengwei Ding, Long Li, Zhiwei Huang, Xinle Deng, Teng Yu, Gangan Ma, Han Xiao, Zixin Chen, Danjun Xiang, Yunxia Wang, Yuanyuan Zhu, Yi Xiao, Jing Wang, Yiru Wang, Siran Ding, Jiayang Huang, Jiayi Xu, Yilihamu Tayier, Zhenyu Hu, Yuan Gao, Chengfeng Zheng, Yueshu Ye, Yihang Li, Lei Wan, Xinyue Jiang, Yujie Wang, Siyu Cheng, Zhule Song, Xiangru Tang, Xiaohua Xu, Ningyu Zhang, Huajun Chen, Yuchen Eleanor Jiang, Wangchunshu Zhou
cs.AI
Samenvatting
Dit werk introduceert Weaver, onze eerste familie van grote taalmodellen (LLMs) die speciaal zijn ontworpen voor contentcreatie. Weaver is vooraf getraind op een zorgvuldig geselecteerd corpus dat gericht is op het verbeteren van de schrijfvaardigheden van grote taalmodellen. Vervolgens finetunen we Weaver voor creatieve en professionele schrijfdoeleinden en aligneren we het met de voorkeuren van professionele schrijvers door gebruik te maken van een reeks nieuwe methoden voor instructiedatasynthese en LLM-alignment, waardoor het in staat is om meer mensachtige teksten te produceren en meer diverse instructies voor contentcreatie te volgen. De Weaver-familie bestaat uit modellen van de grootte Weaver Mini (1,8B), Weaver Base (6B), Weaver Pro (14B) en Weaver Ultra (34B), die geschikt zijn voor verschillende toepassingen en dynamisch kunnen worden ingezet door een routeringsagent op basis van de complexiteit van de query om de reactiekwaliteit en rekenkosten in balans te brengen. Evaluatie op een zorgvuldig samengestelde benchmark voor het beoordelen van de schrijfvaardigheden van LLMs laat zien dat Weaver-modellen van alle groottes algemene LLMs die meerdere malen groter zijn, overtreffen. Opmerkelijk is dat ons meest capabele Weaver Ultra-model GPT-4, een state-of-the-art algemeen LLM, overtreft in verschillende schrijfscenario's, wat het voordeel aantoont van het trainen van gespecialiseerde LLMs voor schrijfdoeleinden. Bovendien ondersteunt Weaver van nature retrieval-augmented generation (RAG) en functie-aanroepen (toolgebruik). We presenteren diverse use cases van deze mogelijkheden voor het verbeteren van AI-ondersteunde schrijfsystemen, waaronder de integratie van externe kennisbanken, tools of API's, en het bieden van gepersonaliseerde schrijfondersteuning. Daarnaast bespreken en vatten we een richtlijn en best practices samen voor het vooraf trainen en finetunen van domeinspecifieke LLMs.
English
This work introduces Weaver, our first family of large language models (LLMs)
dedicated to content creation. Weaver is pre-trained on a carefully selected
corpus that focuses on improving the writing capabilities of large language
models. We then fine-tune Weaver for creative and professional writing purposes
and align it to the preference of professional writers using a suit of novel
methods for instruction data synthesis and LLM alignment, making it able to
produce more human-like texts and follow more diverse instructions for content
creation. The Weaver family consists of models of Weaver Mini (1.8B), Weaver
Base (6B), Weaver Pro (14B), and Weaver Ultra (34B) sizes, suitable for
different applications and can be dynamically dispatched by a routing agent
according to query complexity to balance response quality and computation cost.
Evaluation on a carefully curated benchmark for assessing the writing
capabilities of LLMs shows Weaver models of all sizes outperform generalist
LLMs several times larger than them. Notably, our most-capable Weaver Ultra
model surpasses GPT-4, a state-of-the-art generalist LLM, on various writing
scenarios, demonstrating the advantage of training specialized LLMs for writing
purposes. Moreover, Weaver natively supports retrieval-augmented generation
(RAG) and function calling (tool usage). We present various use cases of these
abilities for improving AI-assisted writing systems, including integration of
external knowledge bases, tools, or APIs, and providing personalized writing
assistance. Furthermore, we discuss and summarize a guideline and best
practices for pre-training and fine-tuning domain-specific LLMs.