LLMs + ペルソナプラグ = パーソナライズされたLLMs
LLMs + Persona-Plug = Personalized LLMs
September 18, 2024
著者: Jiongnan Liu, Yutao Zhu, Shuting Wang, Xiaochi Wei, Erxue Min, Yu Lu, Shuaiqiang Wang, Dawei Yin, Zhicheng Dou
cs.AI
要旨
個人化は、多くの言語タスクやアプリケーションにおいて重要な役割を果たしており、同じ要件を持つユーザーでも、個々の興味に基づいて異なる出力を好むことがあります。これにより、ユーザーの好みに合わせたカスタマイズされた出力を生成するためのさまざまな個人化アプローチの開発が進んでいます。その中には、各ユーザーに対して独自の個人用大規模言語モデル(LLM)を微調整することを含むものもありますが、これは広範な適用にはコストがかかりすぎます。代替アプローチでは、ユーザーの関連する過去のテキストをデモとして取得することで、個人化情報をプラグアンドプレイの形で導入します。しかし、この検索ベースの戦略は、ユーザー履歴の連続性を壊し、ユーザーの全体的なスタイルやパターンを捉えられず、したがって最適なパフォーマンスを発揮できません。これらの課題に対処するために、我々は新しい個人用LLMモデルを提案します。これは、軽量なプラグインユーザーエンベッダーモジュールを介して、すべてのユーザーの過去のコンテキストをモデリングして、個々のユーザーごとにユーザー固有の埋め込みを構築します。この埋め込みをタスクの入力に付加することで、LLMはユーザーの習慣や好みをより良く理解し、捉えることができ、その結果、自身のパラメータを調整することなく、より個人化された出力を生成することができます。言語モデル個人化(LaMP)ベンチマークのさまざまなタスクでの包括的な実験により、提案されたモデルが既存の個人用LLMアプローチを大幅に上回ることが示されました。
English
Personalization plays a critical role in numerous language tasks and
applications, since users with the same requirements may prefer diverse outputs
based on their individual interests. This has led to the development of various
personalized approaches aimed at adapting large language models (LLMs) to
generate customized outputs aligned with user preferences. Some of them involve
fine-tuning a unique personalized LLM for each user, which is too expensive for
widespread application. Alternative approaches introduce personalization
information in a plug-and-play manner by retrieving the user's relevant
historical texts as demonstrations. However, this retrieval-based strategy may
break the continuity of the user history and fail to capture the user's overall
styles and patterns, hence leading to sub-optimal performance. To address these
challenges, we propose a novel personalized LLM model, . It constructs a
user-specific embedding for each individual by modeling all her historical
contexts through a lightweight plug-in user embedder module. By attaching this
embedding to the task input, LLMs can better understand and capture user habits
and preferences, thereby producing more personalized outputs without tuning
their own parameters. Extensive experiments on various tasks in the language
model personalization (LaMP) benchmark demonstrate that the proposed model
significantly outperforms existing personalized LLM approaches.