Ajuste Eficiente de Parâmetros Permite a Personalização Escalável de LLMs para Entrada de Texto: Um Estudo de Caso sobre Expansão de Abreviações
Parameter Efficient Tuning Allows Scalable Personalization of LLMs for Text Entry: A Case Study on Abbreviation Expansion
December 21, 2023
Autores: Katrin Tomanek, Shanqing Cai, Subhashini Venugopalan
cs.AI
Resumo
A expansão de abreviações é uma estratégia usada para acelerar a comunicação ao limitar a quantidade de digitação e utilizar um modelo de linguagem para sugerir expansões. Aqui, examinamos a personalização das sugestões de um Modelo de Linguagem de Grande Escala (LLM) com base em conversas anteriores para aumentar a relevância das previsões, especialmente quando os dados do usuário são escassos (~1000 amostras). Especificamente, comparamos o ajuste fino (fine-tuning), o ajuste de prompt (prompt-tuning) e a geração aumentada por recuperação (retrieval augmented generation) de sugestões de texto expandido para entradas abreviadas. Nosso estudo de caso com um LLM de 8 bilhões de parâmetros implantado em um usuário real que vive com ELA, e experimentos de personalização de personagens de filmes, indicam que (1) a customização pode ser necessária em alguns cenários, e o ajuste de prompt se adapta bem a esses casos, (2) o ajuste fino em dados do domínio (com apenas 600 amostras) ainda mostra alguns ganhos, porém (3) a seleção de poucos exemplos aumentada por recuperação também supera o ajuste fino. (4) O ajuste eficiente em parâmetros permite uma personalização eficiente e escalável. Para o ajuste de prompt, também descobrimos que inicializar os "soft-prompts" aprendidos com tokens de conceitos relevantes ao usuário leva a uma maior precisão do que a inicialização aleatória.
English
Abbreviation expansion is a strategy used to speed up communication by
limiting the amount of typing and using a language model to suggest expansions.
Here we look at personalizing a Large Language Model's (LLM) suggestions based
on prior conversations to enhance the relevance of predictions, particularly
when the user data is small (~1000 samples). Specifically, we compare
fine-tuning, prompt-tuning, and retrieval augmented generation of expanded text
suggestions for abbreviated inputs. Our case study with a deployed 8B parameter
LLM on a real user living with ALS, and experiments on movie character
personalization indicates that (1) customization may be necessary in some
scenarios and prompt-tuning generalizes well to those, (2) fine-tuning on
in-domain data (with as few as 600 samples) still shows some gains, however (3)
retrieval augmented few-shot selection also outperforms fine-tuning. (4)
Parameter efficient tuning allows for efficient and scalable personalization.
For prompt-tuning, we also find that initializing the learned "soft-prompts" to
user relevant concept tokens leads to higher accuracy than random
initialization.