Parameter-effizientes Tuning ermöglicht skalierbare Personalisierung von LLMs für Texteingabe: Eine Fallstudie zur Abkürzungserweiterung
Parameter Efficient Tuning Allows Scalable Personalization of LLMs for Text Entry: A Case Study on Abbreviation Expansion
December 21, 2023
papers.authors: Katrin Tomanek, Shanqing Cai, Subhashini Venugopalan
cs.AI
papers.abstract
Die Abkürzungserweiterung ist eine Strategie, die verwendet wird, um die Kommunikation zu beschleunigen, indem die Menge des Tippens reduziert und ein Sprachmodell zur Vorschlagsgenerierung von Erweiterungen eingesetzt wird. Hier untersuchen wir die Personalisierung der Vorschläge eines Large Language Models (LLM) basierend auf vorherigen Konversationen, um die Relevanz der Vorhersagen zu verbessern, insbesondere wenn die Nutzerdatenmenge gering ist (~1000 Beispiele). Konkret vergleichen wir Fine-Tuning, Prompt-Tuning und retrieval-augmentierte Generierung von erweiterten Textvorschlägen für abgekürzte Eingaben. Unsere Fallstudie mit einem eingesetzten 8B-Parameter-LLM bei einem realen Nutzer mit ALS sowie Experimente zur Personalisierung von Filmcharakteren zeigen, dass (1) in einigen Szenarien eine Anpassung notwendig sein kann und Prompt-Tuning sich dafür gut eignet, (2) Fine-Tuning mit domänenspezifischen Daten (mit nur 600 Beispielen) dennoch gewisse Verbesserungen bringt, jedoch (3) retrieval-augmentierte Few-Shot-Auswahl das Fine-Tuning übertrifft. (4) Parameter-effizientes Tuning ermöglicht eine effiziente und skalierbare Personalisierung. Für das Prompt-Tuning stellen wir außerdem fest, dass die Initialisierung der gelernten „Soft-Prompts“ mit nutzerrelevanten Konzept-Tokens zu einer höheren Genauigkeit führt als eine zufällige Initialisierung.
English
Abbreviation expansion is a strategy used to speed up communication by
limiting the amount of typing and using a language model to suggest expansions.
Here we look at personalizing a Large Language Model's (LLM) suggestions based
on prior conversations to enhance the relevance of predictions, particularly
when the user data is small (~1000 samples). Specifically, we compare
fine-tuning, prompt-tuning, and retrieval augmented generation of expanded text
suggestions for abbreviated inputs. Our case study with a deployed 8B parameter
LLM on a real user living with ALS, and experiments on movie character
personalization indicates that (1) customization may be necessary in some
scenarios and prompt-tuning generalizes well to those, (2) fine-tuning on
in-domain data (with as few as 600 samples) still shows some gains, however (3)
retrieval augmented few-shot selection also outperforms fine-tuning. (4)
Parameter efficient tuning allows for efficient and scalable personalization.
For prompt-tuning, we also find that initializing the learned "soft-prompts" to
user relevant concept tokens leads to higher accuracy than random
initialization.