ChatPaper.aiChatPaper

パラメータ効率型チューニングにより、テキスト入力のためのLLMのスケーラブルなパーソナライゼーションが可能に:略語展開に関する事例研究

Parameter Efficient Tuning Allows Scalable Personalization of LLMs for Text Entry: A Case Study on Abbreviation Expansion

December 21, 2023
著者: Katrin Tomanek, Shanqing Cai, Subhashini Venugopalan
cs.AI

要旨

略語展開は、タイピング量を制限し、言語モデルを用いて展開候補を提案することで、コミュニケーションを高速化する戦略です。ここでは、特にユーザーデータが少量(約1000サンプル)の場合に、過去の会話に基づいて大規模言語モデル(LLM)の提案をパーソナライズし、予測の関連性を高める方法を検討します。具体的には、略語入力に対する展開テキストの提案において、ファインチューニング、プロンプトチューニング、および検索拡張生成を比較します。ALSを患う実在のユーザーに対して展開された8BパラメータのLLMのケーススタディと、映画キャラクターのパーソナライゼーションに関する実験から、以下のことが示されました:(1) 一部のシナリオではカスタマイズが必要であり、プロンプトチューニングがそれらにうまく汎化する、(2) ドメイン内データ(600サンプル程度)でのファインチューニングでもある程度の効果が見られるが、(3) 検索拡張による少数ショット選択はファインチューニングを上回る、(4) パラメータ効率的なチューニングにより、効率的かつスケーラブルなパーソナライゼーションが可能である。また、プロンプトチューニングにおいて、学習された「ソフトプロンプト」をユーザー関連の概念トークンで初期化すると、ランダム初期化よりも精度が高くなることがわかりました。
English
Abbreviation expansion is a strategy used to speed up communication by limiting the amount of typing and using a language model to suggest expansions. Here we look at personalizing a Large Language Model's (LLM) suggestions based on prior conversations to enhance the relevance of predictions, particularly when the user data is small (~1000 samples). Specifically, we compare fine-tuning, prompt-tuning, and retrieval augmented generation of expanded text suggestions for abbreviated inputs. Our case study with a deployed 8B parameter LLM on a real user living with ALS, and experiments on movie character personalization indicates that (1) customization may be necessary in some scenarios and prompt-tuning generalizes well to those, (2) fine-tuning on in-domain data (with as few as 600 samples) still shows some gains, however (3) retrieval augmented few-shot selection also outperforms fine-tuning. (4) Parameter efficient tuning allows for efficient and scalable personalization. For prompt-tuning, we also find that initializing the learned "soft-prompts" to user relevant concept tokens leads to higher accuracy than random initialization.
PDF81December 15, 2024