ChatPaper.aiChatPaper

LLMs + Persona-Plug = LLMs Personalizados

LLMs + Persona-Plug = Personalized LLMs

September 18, 2024
Autores: Jiongnan Liu, Yutao Zhu, Shuting Wang, Xiaochi Wei, Erxue Min, Yu Lu, Shuaiqiang Wang, Dawei Yin, Zhicheng Dou
cs.AI

Resumen

La personalización juega un papel crítico en numerosas tareas y aplicaciones lingüísticas, ya que usuarios con los mismos requisitos pueden preferir salidas diversas basadas en sus intereses individuales. Esto ha llevado al desarrollo de varios enfoques personalizados destinados a adaptar modelos de lenguaje grandes (LLMs) para generar salidas personalizadas alineadas con las preferencias del usuario. Algunos de ellos implican ajustar finamente un LLM personalizado único para cada usuario, lo cual es demasiado costoso para una aplicación generalizada. Enfoques alternativos introducen información de personalización de forma plug-and-play mediante la recuperación de los textos históricos relevantes del usuario como demostraciones. Sin embargo, esta estrategia basada en recuperación puede romper la continuidad de la historia del usuario y no lograr capturar los estilos y patrones generales del usuario, lo que lleva a un rendimiento subóptimo. Para abordar estos desafíos, proponemos un nuevo modelo de LLM personalizado. Construye un embedding específico del usuario para cada individuo modelando todos sus contextos históricos a través de un módulo de incrustación de usuario plug-in ligero. Al adjuntar este embedding a la entrada de la tarea, los LLMs pueden comprender y capturar mejor los hábitos y preferencias del usuario, produciendo así salidas más personalizadas sin ajustar sus propios parámetros. Experimentos extensos en varias tareas en el banco de pruebas de personalización de modelos de lenguaje (LaMP) demuestran que el modelo propuesto supera significativamente a los enfoques existentes de LLM personalizados.
English
Personalization plays a critical role in numerous language tasks and applications, since users with the same requirements may prefer diverse outputs based on their individual interests. This has led to the development of various personalized approaches aimed at adapting large language models (LLMs) to generate customized outputs aligned with user preferences. Some of them involve fine-tuning a unique personalized LLM for each user, which is too expensive for widespread application. Alternative approaches introduce personalization information in a plug-and-play manner by retrieving the user's relevant historical texts as demonstrations. However, this retrieval-based strategy may break the continuity of the user history and fail to capture the user's overall styles and patterns, hence leading to sub-optimal performance. To address these challenges, we propose a novel personalized LLM model, . It constructs a user-specific embedding for each individual by modeling all her historical contexts through a lightweight plug-in user embedder module. By attaching this embedding to the task input, LLMs can better understand and capture user habits and preferences, thereby producing more personalized outputs without tuning their own parameters. Extensive experiments on various tasks in the language model personalization (LaMP) benchmark demonstrate that the proposed model significantly outperforms existing personalized LLM approaches.

Summary

AI-Generated Summary

PDF343November 16, 2024