LLM + Persona-Plug = Персонализированные LLM
LLMs + Persona-Plug = Personalized LLMs
September 18, 2024
Авторы: Jiongnan Liu, Yutao Zhu, Shuting Wang, Xiaochi Wei, Erxue Min, Yu Lu, Shuaiqiang Wang, Dawei Yin, Zhicheng Dou
cs.AI
Аннотация
Персонализация играет критическую роль во многих языковых задачах и приложениях, поскольку пользователи с одинаковыми требованиями могут предпочитать разнообразные результаты в зависимости от их индивидуальных интересов. Это привело к разработке различных персонализированных подходов, направленных на адаптацию крупных языковых моделей (КЯМ) для генерации настроенных результатов, соответствующих предпочтениям пользователя. Некоторые из них включают настройку уникальной персонализированной КЯМ для каждого пользователя, что является слишком дорогостоящим для широкого применения. Альтернативные подходы вводят информацию о персонализации путем извлечения соответствующих исторических текстов пользователя в качестве демонстраций. Однако этот стратегия на основе извлечения может нарушить последовательность истории пользователя и не уловить общие стили и шаблоны пользователя, что приводит к субоптимальной производительности. Для решения этих проблем мы предлагаем новую модель персонализированной КЯМ. Она создает уникальное вложение для каждого пользователя, моделируя все его исторические контексты через легковесный модуль встраивания пользователя. Присоединяя это вложение к входной задаче, КЯМ могут лучше понимать и улавливать привычки и предпочтения пользователя, тем самым производя более персонализированные результаты без настройки своих собственных параметров. Обширные эксперименты на различных задачах в бенчмарке по персонализации языковой модели (LaMP) показывают, что предложенная модель значительно превосходит существующие персонализированные подходы с КЯМ.
English
Personalization plays a critical role in numerous language tasks and
applications, since users with the same requirements may prefer diverse outputs
based on their individual interests. This has led to the development of various
personalized approaches aimed at adapting large language models (LLMs) to
generate customized outputs aligned with user preferences. Some of them involve
fine-tuning a unique personalized LLM for each user, which is too expensive for
widespread application. Alternative approaches introduce personalization
information in a plug-and-play manner by retrieving the user's relevant
historical texts as demonstrations. However, this retrieval-based strategy may
break the continuity of the user history and fail to capture the user's overall
styles and patterns, hence leading to sub-optimal performance. To address these
challenges, we propose a novel personalized LLM model, . It constructs a
user-specific embedding for each individual by modeling all her historical
contexts through a lightweight plug-in user embedder module. By attaching this
embedding to the task input, LLMs can better understand and capture user habits
and preferences, thereby producing more personalized outputs without tuning
their own parameters. Extensive experiments on various tasks in the language
model personalization (LaMP) benchmark demonstrate that the proposed model
significantly outperforms existing personalized LLM approaches.Summary
AI-Generated Summary