大規模言語モデルは全てのキャラクターの重ね合わせである:自己アライメントによる任意のロールプレイの実現
Large Language Models are Superpositions of All Characters: Attaining Arbitrary Role-play via Self-Alignment
January 23, 2024
著者: Keming Lu, Bowen Yu, Chang Zhou, Jingren Zhou
cs.AI
要旨
オープンソースの大規模言語モデル(LLM)のロールプレイ能力を向上させるために、プロプライエタリなモデルを模倣する取り組みが多大に投資されてきた。しかしながら、我々はLLMが本質的にロールプレイ能力を有していると主張する。これは、その膨大な訓練コーパスに埋め込まれたキャラクターや潜在的な対話に関する広範な知識によるものである。したがって、本研究では、ロールプレイのための自己アライメント手法であるDittoを紹介する。Dittoはキャラクター知識を活用し、指示追従型LLMに読解の一形態としてロールプレイ対話をシミュレートするよう促す。この手法により、4,000キャラクターからなるロールプレイ訓練セットが作成され、現在利用可能なデータセットの役割数に関して10倍の規模を超える。その後、この自己生成データセットを用いてLLMを微調整し、そのロールプレイ能力を強化する。我々が慎重に構築し再現可能なロールプレイベンチマークおよびMT-Benchのロールプレイサブセットを評価した結果、Dittoは様々なパラメータスケールにおいて一貫した役割同一性を維持し、多ターンロールプレイ会話において正確な役割固有の知識を提供する。特に、全てのオープンソースロールプレイベースラインを上回り、高度なプロプライエタリチャットボットに匹敵する性能レベルを示す。さらに、ロールプレイ領域における初の包括的なクロススーパービジョンアライメント実験を提示し、LLMの内在的能力がロールプレイ内の知識を制限することを明らかにする。一方で、ロールプレイスタイルはより小さなモデルの指導により容易に獲得できることを示す。関連リソースはhttps://github.com/OFA-Sys/Dittoでオープンソース化している。
English
Considerable efforts have been invested in augmenting the role-playing
proficiency of open-source large language models (LLMs) by emulating
proprietary counterparts. Nevertheless, we posit that LLMs inherently harbor
role-play capabilities, owing to the extensive knowledge of characters and
potential dialogues ingrained in their vast training corpora. Thus, in this
study, we introduce Ditto, a self-alignment method for role-play. Ditto
capitalizes on character knowledge, encouraging an instruction-following LLM to
simulate role-play dialogues as a variant of reading comprehension. This method
creates a role-play training set comprising 4,000 characters, surpassing the
scale of currently available datasets by tenfold regarding the number of roles.
Subsequently, we fine-tune the LLM using this self-generated dataset to augment
its role-playing capabilities. Upon evaluating our meticulously constructed and
reproducible role-play benchmark and the roleplay subset of MT-Bench, Ditto, in
various parameter scales, consistently maintains a consistent role identity and
provides accurate role-specific knowledge in multi-turn role-play
conversations. Notably, it outperforms all open-source role-play baselines,
showcasing performance levels comparable to advanced proprietary chatbots.
Furthermore, we present the first comprehensive cross-supervision alignment
experiment in the role-play domain, revealing that the intrinsic capabilities
of LLMs confine the knowledge within role-play. Meanwhile, the role-play styles
can be easily acquired with the guidance of smaller models. We open-source
related resources at https://github.com/OFA-Sys/Ditto.