Weaver: Foundation-Modelle für kreatives Schreiben
Weaver: Foundation Models for Creative Writing
January 30, 2024
Autoren: Tiannan Wang, Jiamin Chen, Qingrui Jia, Shuai Wang, Ruoyu Fang, Huilin Wang, Zhaowei Gao, Chunzhao Xie, Chuou Xu, Jihong Dai, Yibin Liu, Jialong Wu, Shengwei Ding, Long Li, Zhiwei Huang, Xinle Deng, Teng Yu, Gangan Ma, Han Xiao, Zixin Chen, Danjun Xiang, Yunxia Wang, Yuanyuan Zhu, Yi Xiao, Jing Wang, Yiru Wang, Siran Ding, Jiayang Huang, Jiayi Xu, Yilihamu Tayier, Zhenyu Hu, Yuan Gao, Chengfeng Zheng, Yueshu Ye, Yihang Li, Lei Wan, Xinyue Jiang, Yujie Wang, Siyu Cheng, Zhule Song, Xiangru Tang, Xiaohua Xu, Ningyu Zhang, Huajun Chen, Yuchen Eleanor Jiang, Wangchunshu Zhou
cs.AI
Zusammenfassung
Diese Arbeit stellt Weaver vor, unsere erste Familie von großen Sprachmodellen (LLMs), die speziell für die Inhaltserstellung entwickelt wurde. Weaver wird auf einem sorgfältig ausgewählten Korpus vortrainiert, der darauf abzielt, die Schreibfähigkeiten großer Sprachmodelle zu verbessern. Anschließend wird Weaver für kreative und professionelle Schreibzwecke feinabgestimmt und an die Präferenzen professioneller Schreiber angepasst, indem eine Reihe neuartiger Methoden zur Synthese von Instruktionsdaten und zur Ausrichtung von LLMs verwendet werden. Dadurch ist Weaver in der Lage, menschenähnlichere Texte zu erzeugen und vielfältigere Anweisungen zur Inhaltserstellung zu befolgen. Die Weaver-Familie umfasst Modelle der Größen Weaver Mini (1,8B), Weaver Base (6B), Weaver Pro (14B) und Weaver Ultra (34B), die für verschiedene Anwendungen geeignet sind und durch einen Routing-Agenten dynamisch entsprechend der Abfragekomplexität eingesetzt werden können, um die Antwortqualität und die Rechenkosten auszugleichen. Die Bewertung auf einem sorgfältig kuratierten Benchmark zur Beurteilung der Schreibfähigkeiten von LLMs zeigt, dass Weaver-Modelle aller Größen generalistische LLMs, die um ein Vielfaches größer sind, übertreffen. Besonders hervorzuheben ist, dass unser leistungsfähigstes Modell, Weaver Ultra, GPT-4, ein state-of-the-art generalistisches LLM, in verschiedenen Schreibszenarien übertrifft, was den Vorteil des Trainings spezialisierter LLMs für Schreibzwecke demonstriert. Darüber hinaus unterstützt Weaver nativ die retrievergestützte Generierung (RAG) und Funktionsaufrufe (Tool-Nutzung). Wir präsentieren verschiedene Anwendungsfälle dieser Fähigkeiten zur Verbesserung von KI-gestützten Schreibsystemen, einschließlich der Integration externer Wissensdatenbanken, Tools oder APIs sowie der Bereitstellung personalisierter Schreibunterstützung. Außerdem diskutieren und fassen wir eine Richtlinie und Best Practices für das Vortraining und die Feinabstimmung domänenspezifischer LLMs zusammen.
English
This work introduces Weaver, our first family of large language models (LLMs)
dedicated to content creation. Weaver is pre-trained on a carefully selected
corpus that focuses on improving the writing capabilities of large language
models. We then fine-tune Weaver for creative and professional writing purposes
and align it to the preference of professional writers using a suit of novel
methods for instruction data synthesis and LLM alignment, making it able to
produce more human-like texts and follow more diverse instructions for content
creation. The Weaver family consists of models of Weaver Mini (1.8B), Weaver
Base (6B), Weaver Pro (14B), and Weaver Ultra (34B) sizes, suitable for
different applications and can be dynamically dispatched by a routing agent
according to query complexity to balance response quality and computation cost.
Evaluation on a carefully curated benchmark for assessing the writing
capabilities of LLMs shows Weaver models of all sizes outperform generalist
LLMs several times larger than them. Notably, our most-capable Weaver Ultra
model surpasses GPT-4, a state-of-the-art generalist LLM, on various writing
scenarios, demonstrating the advantage of training specialized LLMs for writing
purposes. Moreover, Weaver natively supports retrieval-augmented generation
(RAG) and function calling (tool usage). We present various use cases of these
abilities for improving AI-assisted writing systems, including integration of
external knowledge bases, tools, or APIs, and providing personalized writing
assistance. Furthermore, we discuss and summarize a guideline and best
practices for pre-training and fine-tuning domain-specific LLMs.