El ajuste eficiente de parámetros permite la personalización escalable de LLMs para la entrada de texto: un estudio de caso sobre la expansión de abreviaturas.
Parameter Efficient Tuning Allows Scalable Personalization of LLMs for Text Entry: A Case Study on Abbreviation Expansion
December 21, 2023
Autores: Katrin Tomanek, Shanqing Cai, Subhashini Venugopalan
cs.AI
Resumen
La expansión de abreviaturas es una estrategia utilizada para agilizar la comunicación al limitar la cantidad de escritura y emplear un modelo de lenguaje para sugerir expansiones. Aquí examinamos la personalización de las sugerencias de un Modelo de Lenguaje de Gran Escala (LLM, por sus siglas en inglés) basándose en conversaciones previas para mejorar la relevancia de las predicciones, especialmente cuando los datos del usuario son escasos (~1000 muestras). Específicamente, comparamos el ajuste fino, el ajuste por indicación (prompt-tuning) y la generación aumentada por recuperación (retrieval augmented generation) de sugerencias de texto expandido para entradas abreviadas. Nuestro estudio de caso con un LLM de 8 mil millones de parámetros implementado en un usuario real que vive con ELA, junto con experimentos de personalización de personajes de películas, indica que (1) la personalización puede ser necesaria en algunos escenarios y el ajuste por indicación se adapta bien a ellos, (2) el ajuste fino con datos del dominio (con tan solo 600 muestras) aún muestra ciertas mejoras, sin embargo (3) la selección de pocos ejemplos aumentada por recuperación también supera al ajuste fino. (4) El ajuste eficiente en parámetros permite una personalización eficaz y escalable. Para el ajuste por indicación, también encontramos que inicializar los "indicadores suaves" aprendidos con tokens de conceptos relevantes para el usuario conduce a una mayor precisión que la inicialización aleatoria.
English
Abbreviation expansion is a strategy used to speed up communication by
limiting the amount of typing and using a language model to suggest expansions.
Here we look at personalizing a Large Language Model's (LLM) suggestions based
on prior conversations to enhance the relevance of predictions, particularly
when the user data is small (~1000 samples). Specifically, we compare
fine-tuning, prompt-tuning, and retrieval augmented generation of expanded text
suggestions for abbreviated inputs. Our case study with a deployed 8B parameter
LLM on a real user living with ALS, and experiments on movie character
personalization indicates that (1) customization may be necessary in some
scenarios and prompt-tuning generalizes well to those, (2) fine-tuning on
in-domain data (with as few as 600 samples) still shows some gains, however (3)
retrieval augmented few-shot selection also outperforms fine-tuning. (4)
Parameter efficient tuning allows for efficient and scalable personalization.
For prompt-tuning, we also find that initializing the learned "soft-prompts" to
user relevant concept tokens leads to higher accuracy than random
initialization.