Il Tuning Efficiente dei Parametri Consente una Personalizzazione Scalabile degli LLM per l'Immissione di Testo: Uno Studio di Caso sull'Espansione delle Abbreviazioni
Parameter Efficient Tuning Allows Scalable Personalization of LLMs for Text Entry: A Case Study on Abbreviation Expansion
December 21, 2023
Autori: Katrin Tomanek, Shanqing Cai, Subhashini Venugopalan
cs.AI
Abstract
L'espansione delle abbreviazioni è una strategia utilizzata per accelerare la comunicazione limitando la quantità di digitazione e impiegando un modello linguistico per suggerire le espansioni. Qui esaminiamo la personalizzazione dei suggerimenti di un Large Language Model (LLM) basandoci su conversazioni precedenti per migliorare la rilevanza delle previsioni, specialmente quando i dati dell'utente sono limitati (~1000 campioni). Nello specifico, confrontiamo il fine-tuning, il prompt-tuning e la generazione aumentata con recupero di informazioni per i suggerimenti di testo espanso relativi a input abbreviati. Il nostro caso di studio con un LLM da 8 miliardi di parametri implementato su un utente reale affetto da SLA, e gli esperimenti sulla personalizzazione dei personaggi cinematografici, indicano che (1) la personalizzazione può essere necessaria in alcuni scenari e il prompt-tuning si adatta bene a questi, (2) il fine-tuning su dati di dominio specifico (con appena 600 campioni) mostra ancora alcuni miglioramenti, tuttavia (3) la selezione few-shot aumentata con recupero supera anche il fine-tuning. (4) Il tuning efficiente dei parametri consente una personalizzazione efficiente e scalabile. Per il prompt-tuning, abbiamo anche riscontrato che inizializzare i "soft-prompt" appresi con token concettuali rilevanti per l'utente porta a una maggiore accuratezza rispetto all'inizializzazione casuale.
English
Abbreviation expansion is a strategy used to speed up communication by
limiting the amount of typing and using a language model to suggest expansions.
Here we look at personalizing a Large Language Model's (LLM) suggestions based
on prior conversations to enhance the relevance of predictions, particularly
when the user data is small (~1000 samples). Specifically, we compare
fine-tuning, prompt-tuning, and retrieval augmented generation of expanded text
suggestions for abbreviated inputs. Our case study with a deployed 8B parameter
LLM on a real user living with ALS, and experiments on movie character
personalization indicates that (1) customization may be necessary in some
scenarios and prompt-tuning generalizes well to those, (2) fine-tuning on
in-domain data (with as few as 600 samples) still shows some gains, however (3)
retrieval augmented few-shot selection also outperforms fine-tuning. (4)
Parameter efficient tuning allows for efficient and scalable personalization.
For prompt-tuning, we also find that initializing the learned "soft-prompts" to
user relevant concept tokens leads to higher accuracy than random
initialization.