LLM's + Persona-Plug = Gepersonaliseerde LLM's
LLMs + Persona-Plug = Personalized LLMs
September 18, 2024
Auteurs: Jiongnan Liu, Yutao Zhu, Shuting Wang, Xiaochi Wei, Erxue Min, Yu Lu, Shuaiqiang Wang, Dawei Yin, Zhicheng Dou
cs.AI
Samenvatting
Personalisatie speelt een cruciale rol in tal van taaltaken en toepassingen, aangezien gebruikers met dezelfde vereisten verschillende uitvoer kunnen verkiezen op basis van hun individuele interesses. Dit heeft geleid tot de ontwikkeling van verschillende gepersonaliseerde benaderingen gericht op het aanpassen van grote taalmodellen (GTM's) om aangepaste uitvoer te genereren die in lijn is met de voorkeuren van de gebruiker. Sommige daarvan omvatten het fijnafstemmen van een uniek gepersonaliseerd GTM voor elke gebruiker, wat te duur is voor grootschalige toepassing. Alternatieve benaderingen introduceren personalisatie-informatie op een plug-and-play manier door de relevante historische teksten van de gebruiker op te halen als demonstraties. Echter, deze opvraaggebaseerde strategie kan de continuïteit van de gebruikersgeschiedenis verbreken en er niet in slagen de algehele stijlen en patronen van de gebruiker vast te leggen, wat leidt tot suboptimale prestaties. Om deze uitdagingen aan te pakken, stellen we een nieuw gepersonaliseerd GTM-model voor. Het construeert een gebruikerspecifieke insluiting voor elk individu door al haar historische contexten te modelleren via een lichtgewicht plug-in gebruikersinsluitingsmodule. Door deze insluiting aan de taakinvoer te koppelen, kunnen GTM's gebruikersgewoonten en voorkeuren beter begrijpen en vastleggen, waardoor ze meer gepersonaliseerde uitvoer kunnen produceren zonder hun eigen parameters af te stemmen. Uitgebreide experimenten op verschillende taken in de taalmodelpersonalisatie (LaMP) benchmark tonen aan dat het voorgestelde model aanzienlijk beter presteert dan bestaande gepersonaliseerde GTM-benaderingen.
English
Personalization plays a critical role in numerous language tasks and
applications, since users with the same requirements may prefer diverse outputs
based on their individual interests. This has led to the development of various
personalized approaches aimed at adapting large language models (LLMs) to
generate customized outputs aligned with user preferences. Some of them involve
fine-tuning a unique personalized LLM for each user, which is too expensive for
widespread application. Alternative approaches introduce personalization
information in a plug-and-play manner by retrieving the user's relevant
historical texts as demonstrations. However, this retrieval-based strategy may
break the continuity of the user history and fail to capture the user's overall
styles and patterns, hence leading to sub-optimal performance. To address these
challenges, we propose a novel personalized LLM model, . It constructs a
user-specific embedding for each individual by modeling all her historical
contexts through a lightweight plug-in user embedder module. By attaching this
embedding to the task input, LLMs can better understand and capture user habits
and preferences, thereby producing more personalized outputs without tuning
their own parameters. Extensive experiments on various tasks in the language
model personalization (LaMP) benchmark demonstrate that the proposed model
significantly outperforms existing personalized LLM approaches.Summary
AI-Generated Summary