ChatPaper.aiChatPaper

Ajuste Eficiente de Parâmetros Permite a Personalização Escalável de LLMs para Entrada de Texto: Um Estudo de Caso sobre Expansão de Abreviações

Parameter Efficient Tuning Allows Scalable Personalization of LLMs for Text Entry: A Case Study on Abbreviation Expansion

December 21, 2023
Autores: Katrin Tomanek, Shanqing Cai, Subhashini Venugopalan
cs.AI

Resumo

A expansão de abreviações é uma estratégia usada para acelerar a comunicação ao limitar a quantidade de digitação e utilizar um modelo de linguagem para sugerir expansões. Aqui, examinamos a personalização das sugestões de um Modelo de Linguagem de Grande Escala (LLM) com base em conversas anteriores para aumentar a relevância das previsões, especialmente quando os dados do usuário são escassos (~1000 amostras). Especificamente, comparamos o ajuste fino (fine-tuning), o ajuste de prompt (prompt-tuning) e a geração aumentada por recuperação (retrieval augmented generation) de sugestões de texto expandido para entradas abreviadas. Nosso estudo de caso com um LLM de 8 bilhões de parâmetros implantado em um usuário real que vive com ELA, e experimentos de personalização de personagens de filmes, indicam que (1) a customização pode ser necessária em alguns cenários, e o ajuste de prompt se adapta bem a esses casos, (2) o ajuste fino em dados do domínio (com apenas 600 amostras) ainda mostra alguns ganhos, porém (3) a seleção de poucos exemplos aumentada por recuperação também supera o ajuste fino. (4) O ajuste eficiente em parâmetros permite uma personalização eficiente e escalável. Para o ajuste de prompt, também descobrimos que inicializar os "soft-prompts" aprendidos com tokens de conceitos relevantes ao usuário leva a uma maior precisão do que a inicialização aleatória.
English
Abbreviation expansion is a strategy used to speed up communication by limiting the amount of typing and using a language model to suggest expansions. Here we look at personalizing a Large Language Model's (LLM) suggestions based on prior conversations to enhance the relevance of predictions, particularly when the user data is small (~1000 samples). Specifically, we compare fine-tuning, prompt-tuning, and retrieval augmented generation of expanded text suggestions for abbreviated inputs. Our case study with a deployed 8B parameter LLM on a real user living with ALS, and experiments on movie character personalization indicates that (1) customization may be necessary in some scenarios and prompt-tuning generalizes well to those, (2) fine-tuning on in-domain data (with as few as 600 samples) still shows some gains, however (3) retrieval augmented few-shot selection also outperforms fine-tuning. (4) Parameter efficient tuning allows for efficient and scalable personalization. For prompt-tuning, we also find that initializing the learned "soft-prompts" to user relevant concept tokens leads to higher accuracy than random initialization.
PDF71February 8, 2026