ChatPaper.aiChatPaper

SynthesizeMe! Het induceren van persona-gestuurde prompts voor gepersonaliseerde beloningsmodellen in LLM's

SynthesizeMe! Inducing Persona-Guided Prompts for Personalized Reward Models in LLMs

June 5, 2025
Auteurs: Michael J Ryan, Omar Shaikh, Aditri Bhagirath, Daniel Frees, William Held, Diyi Yang
cs.AI

Samenvatting

Recente oproepen voor pluralistische afstemming van Large Language Models (LLMs) moedigen het aanpassen van modellen aan diverse gebruikersvoorkeuren aan. Het meeste eerdere werk over gepersonaliseerde beloningsmodellen is echter sterk afhankelijk van aanvullende identiteitsinformatie, zoals demografische details of een vooraf gedefinieerde set voorkeurscategorieën. Daarom introduceren wij SynthesizeMe, een benadering om synthetische gebruikerspersona's af te leiden uit gebruikersinteracties voor gepersonaliseerde beloningsmodellering. SynthesizeMe genereert en verifieert eerst redeneringen om gebruikersvoorkeuren te verklaren, leidt vervolgens synthetische gebruikerspersona's af uit die redeneringen, en filtert ten slotte naar informatieve eerdere gebruikersinteracties om gepersonaliseerde prompts voor een specifieke gebruiker te bouwen. Wij tonen aan dat het gebruik van door SynthesizeMe gegenereerde prompts de nauwkeurigheid van gepersonaliseerde LLM-as-a-judge met 4,4% verbetert op Chatbot Arena. Het combineren van door SynthesizeMe afgeleide prompts met een beloningsmodel behaalt de beste prestaties op PersonalRewardBench: een nieuwe curatie van gebruikersgestratificeerde interacties met chatbots, verzameld van 854 gebruikers van Chatbot Arena en PRISM.
English
Recent calls for pluralistic alignment of Large Language Models (LLMs) encourage adapting models to diverse user preferences. However, most prior work on personalized reward models heavily rely on additional identity information, such as demographic details or a predefined set of preference categories. To this end, we introduce SynthesizeMe, an approach to inducing synthetic user personas from user interactions for personalized reward modeling. SynthesizeMe first generates and verifies reasoning to explain user preferences, then induces synthetic user personas from that reasoning, and finally filters to informative prior user interactions in order to build personalized prompts for a particular user. We show that using SynthesizeMe induced prompts improves personalized LLM-as-a-judge accuracy by 4.4% on Chatbot Arena. Combining SynthesizeMe derived prompts with a reward model achieves top performance on PersonalRewardBench: a new curation of user-stratified interactions with chatbots collected from 854 users of Chatbot Arena and PRISM.
PDF72June 10, 2025