ChatPaper.aiChatPaper

Il Tuning Efficiente dei Parametri Consente una Personalizzazione Scalabile degli LLM per l'Immissione di Testo: Uno Studio di Caso sull'Espansione delle Abbreviazioni

Parameter Efficient Tuning Allows Scalable Personalization of LLMs for Text Entry: A Case Study on Abbreviation Expansion

December 21, 2023
Autori: Katrin Tomanek, Shanqing Cai, Subhashini Venugopalan
cs.AI

Abstract

L'espansione delle abbreviazioni è una strategia utilizzata per accelerare la comunicazione limitando la quantità di digitazione e impiegando un modello linguistico per suggerire le espansioni. Qui esaminiamo la personalizzazione dei suggerimenti di un Large Language Model (LLM) basandoci su conversazioni precedenti per migliorare la rilevanza delle previsioni, specialmente quando i dati dell'utente sono limitati (~1000 campioni). Nello specifico, confrontiamo il fine-tuning, il prompt-tuning e la generazione aumentata con recupero di informazioni per i suggerimenti di testo espanso relativi a input abbreviati. Il nostro caso di studio con un LLM da 8 miliardi di parametri implementato su un utente reale affetto da SLA, e gli esperimenti sulla personalizzazione dei personaggi cinematografici, indicano che (1) la personalizzazione può essere necessaria in alcuni scenari e il prompt-tuning si adatta bene a questi, (2) il fine-tuning su dati di dominio specifico (con appena 600 campioni) mostra ancora alcuni miglioramenti, tuttavia (3) la selezione few-shot aumentata con recupero supera anche il fine-tuning. (4) Il tuning efficiente dei parametri consente una personalizzazione efficiente e scalabile. Per il prompt-tuning, abbiamo anche riscontrato che inizializzare i "soft-prompt" appresi con token concettuali rilevanti per l'utente porta a una maggiore accuratezza rispetto all'inizializzazione casuale.
English
Abbreviation expansion is a strategy used to speed up communication by limiting the amount of typing and using a language model to suggest expansions. Here we look at personalizing a Large Language Model's (LLM) suggestions based on prior conversations to enhance the relevance of predictions, particularly when the user data is small (~1000 samples). Specifically, we compare fine-tuning, prompt-tuning, and retrieval augmented generation of expanded text suggestions for abbreviated inputs. Our case study with a deployed 8B parameter LLM on a real user living with ALS, and experiments on movie character personalization indicates that (1) customization may be necessary in some scenarios and prompt-tuning generalizes well to those, (2) fine-tuning on in-domain data (with as few as 600 samples) still shows some gains, however (3) retrieval augmented few-shot selection also outperforms fine-tuning. (4) Parameter efficient tuning allows for efficient and scalable personalization. For prompt-tuning, we also find that initializing the learned "soft-prompts" to user relevant concept tokens leads to higher accuracy than random initialization.
PDF71February 8, 2026