ChatPaper.aiChatPaper

LLM's + Persona-Plug = Gepersonaliseerde LLM's

LLMs + Persona-Plug = Personalized LLMs

September 18, 2024
Auteurs: Jiongnan Liu, Yutao Zhu, Shuting Wang, Xiaochi Wei, Erxue Min, Yu Lu, Shuaiqiang Wang, Dawei Yin, Zhicheng Dou
cs.AI

Samenvatting

Personalisatie speelt een cruciale rol in tal van taaltaken en toepassingen, aangezien gebruikers met dezelfde vereisten verschillende uitvoer kunnen verkiezen op basis van hun individuele interesses. Dit heeft geleid tot de ontwikkeling van verschillende gepersonaliseerde benaderingen gericht op het aanpassen van grote taalmodellen (GTM's) om aangepaste uitvoer te genereren die in lijn is met de voorkeuren van de gebruiker. Sommige daarvan omvatten het fijnafstemmen van een uniek gepersonaliseerd GTM voor elke gebruiker, wat te duur is voor grootschalige toepassing. Alternatieve benaderingen introduceren personalisatie-informatie op een plug-and-play manier door de relevante historische teksten van de gebruiker op te halen als demonstraties. Echter, deze opvraaggebaseerde strategie kan de continuïteit van de gebruikersgeschiedenis verbreken en er niet in slagen de algehele stijlen en patronen van de gebruiker vast te leggen, wat leidt tot suboptimale prestaties. Om deze uitdagingen aan te pakken, stellen we een nieuw gepersonaliseerd GTM-model voor. Het construeert een gebruikerspecifieke insluiting voor elk individu door al haar historische contexten te modelleren via een lichtgewicht plug-in gebruikersinsluitingsmodule. Door deze insluiting aan de taakinvoer te koppelen, kunnen GTM's gebruikersgewoonten en voorkeuren beter begrijpen en vastleggen, waardoor ze meer gepersonaliseerde uitvoer kunnen produceren zonder hun eigen parameters af te stemmen. Uitgebreide experimenten op verschillende taken in de taalmodelpersonalisatie (LaMP) benchmark tonen aan dat het voorgestelde model aanzienlijk beter presteert dan bestaande gepersonaliseerde GTM-benaderingen.
English
Personalization plays a critical role in numerous language tasks and applications, since users with the same requirements may prefer diverse outputs based on their individual interests. This has led to the development of various personalized approaches aimed at adapting large language models (LLMs) to generate customized outputs aligned with user preferences. Some of them involve fine-tuning a unique personalized LLM for each user, which is too expensive for widespread application. Alternative approaches introduce personalization information in a plug-and-play manner by retrieving the user's relevant historical texts as demonstrations. However, this retrieval-based strategy may break the continuity of the user history and fail to capture the user's overall styles and patterns, hence leading to sub-optimal performance. To address these challenges, we propose a novel personalized LLM model, . It constructs a user-specific embedding for each individual by modeling all her historical contexts through a lightweight plug-in user embedder module. By attaching this embedding to the task input, LLMs can better understand and capture user habits and preferences, thereby producing more personalized outputs without tuning their own parameters. Extensive experiments on various tasks in the language model personalization (LaMP) benchmark demonstrate that the proposed model significantly outperforms existing personalized LLM approaches.

Summary

AI-Generated Summary

PDF343November 16, 2024