ChatPaper.aiChatPaper

LLM + Persona-Plug = Персонализированные LLM

LLMs + Persona-Plug = Personalized LLMs

September 18, 2024
Авторы: Jiongnan Liu, Yutao Zhu, Shuting Wang, Xiaochi Wei, Erxue Min, Yu Lu, Shuaiqiang Wang, Dawei Yin, Zhicheng Dou
cs.AI

Аннотация

Персонализация играет критическую роль во многих языковых задачах и приложениях, поскольку пользователи с одинаковыми требованиями могут предпочитать разнообразные результаты в зависимости от их индивидуальных интересов. Это привело к разработке различных персонализированных подходов, направленных на адаптацию крупных языковых моделей (КЯМ) для генерации настроенных результатов, соответствующих предпочтениям пользователя. Некоторые из них включают настройку уникальной персонализированной КЯМ для каждого пользователя, что является слишком дорогостоящим для широкого применения. Альтернативные подходы вводят информацию о персонализации путем извлечения соответствующих исторических текстов пользователя в качестве демонстраций. Однако этот стратегия на основе извлечения может нарушить последовательность истории пользователя и не уловить общие стили и шаблоны пользователя, что приводит к субоптимальной производительности. Для решения этих проблем мы предлагаем новую модель персонализированной КЯМ. Она создает уникальное вложение для каждого пользователя, моделируя все его исторические контексты через легковесный модуль встраивания пользователя. Присоединяя это вложение к входной задаче, КЯМ могут лучше понимать и улавливать привычки и предпочтения пользователя, тем самым производя более персонализированные результаты без настройки своих собственных параметров. Обширные эксперименты на различных задачах в бенчмарке по персонализации языковой модели (LaMP) показывают, что предложенная модель значительно превосходит существующие персонализированные подходы с КЯМ.
English
Personalization plays a critical role in numerous language tasks and applications, since users with the same requirements may prefer diverse outputs based on their individual interests. This has led to the development of various personalized approaches aimed at adapting large language models (LLMs) to generate customized outputs aligned with user preferences. Some of them involve fine-tuning a unique personalized LLM for each user, which is too expensive for widespread application. Alternative approaches introduce personalization information in a plug-and-play manner by retrieving the user's relevant historical texts as demonstrations. However, this retrieval-based strategy may break the continuity of the user history and fail to capture the user's overall styles and patterns, hence leading to sub-optimal performance. To address these challenges, we propose a novel personalized LLM model, . It constructs a user-specific embedding for each individual by modeling all her historical contexts through a lightweight plug-in user embedder module. By attaching this embedding to the task input, LLMs can better understand and capture user habits and preferences, thereby producing more personalized outputs without tuning their own parameters. Extensive experiments on various tasks in the language model personalization (LaMP) benchmark demonstrate that the proposed model significantly outperforms existing personalized LLM approaches.

Summary

AI-Generated Summary

PDF343November 16, 2024