L'ajustement efficace des paramètres permet une personnalisation évolutive des LLM pour la saisie de texte : une étude de cas sur l'expansion des abréviations
Parameter Efficient Tuning Allows Scalable Personalization of LLMs for Text Entry: A Case Study on Abbreviation Expansion
December 21, 2023
papers.authors: Katrin Tomanek, Shanqing Cai, Subhashini Venugopalan
cs.AI
papers.abstract
L'expansion d'abréviations est une stratégie utilisée pour accélérer la communication en limitant la quantité de saisie et en exploitant un modèle de langage pour suggérer des expansions. Ici, nous examinons la personnalisation des suggestions d'un modèle de langage de grande taille (LLM) en fonction des conversations précédentes afin d'améliorer la pertinence des prédictions, en particulier lorsque les données utilisateur sont limitées (~1000 échantillons). Plus précisément, nous comparons le fine-tuning, le prompt-tuning et la génération augmentée par récupération pour les suggestions de texte expansé à partir d'entrées abrégées. Notre étude de cas avec un LLM de 8 milliards de paramètres déployé auprès d'un utilisateur réel vivant avec la SLA, ainsi que des expériences de personnalisation de personnages de films, indiquent que (1) la personnalisation peut être nécessaire dans certains scénarios et que le prompt-tuning s'y adapte bien, (2) le fine-tuning sur des données du domaine (avec aussi peu que 600 échantillons) montre encore des gains, mais (3) la sélection few-shot augmentée par récupération surpasse également le fine-tuning. (4) Le réglage efficace des paramètres permet une personnalisation efficiente et évolutive. Pour le prompt-tuning, nous constatons également que l'initialisation des "soft-prompts" appris à des tokens de concepts pertinents pour l'utilisateur conduit à une précision plus élevée qu'une initialisation aléatoire.
English
Abbreviation expansion is a strategy used to speed up communication by
limiting the amount of typing and using a language model to suggest expansions.
Here we look at personalizing a Large Language Model's (LLM) suggestions based
on prior conversations to enhance the relevance of predictions, particularly
when the user data is small (~1000 samples). Specifically, we compare
fine-tuning, prompt-tuning, and retrieval augmented generation of expanded text
suggestions for abbreviated inputs. Our case study with a deployed 8B parameter
LLM on a real user living with ALS, and experiments on movie character
personalization indicates that (1) customization may be necessary in some
scenarios and prompt-tuning generalizes well to those, (2) fine-tuning on
in-domain data (with as few as 600 samples) still shows some gains, however (3)
retrieval augmented few-shot selection also outperforms fine-tuning. (4)
Parameter efficient tuning allows for efficient and scalable personalization.
For prompt-tuning, we also find that initializing the learned "soft-prompts" to
user relevant concept tokens leads to higher accuracy than random
initialization.