ChatPaper.aiChatPaper

PEARL: Personalisatie van Schrijfassistenten met Grote Taalmodellen met Generatie-Gecalibreerde Retrievers

PEARL: Personalizing Large Language Model Writing Assistants with Generation-Calibrated Retrievers

November 15, 2023
Auteurs: Sheshera Mysore, Zhuoran Lu, Mengting Wan, Longqi Yang, Steve Menezes, Tina Baghaee, Emmanuel Barajas Gonzalez, Jennifer Neville, Tara Safavi
cs.AI

Samenvatting

Krachtige grote taalmodellen hebben de ontwikkeling van schrijfassistenten mogelijk gemaakt die beloven de kwaliteit en efficiëntie van compositie en communicatie aanzienlijk te verbeteren. Een belemmering voor effectieve ondersteuning is echter het gebrek aan personalisatie in de uitvoer van LLM's (Large Language Models) ten opzichte van de communicatiestijl en gespecialiseerde kennis van de auteur. In dit artikel gaan we deze uitdaging aan door PEARL voor te stellen, een retrieval-augmented LLM-schrijfassistent die gepersonaliseerd is met een generatie-gekalibreerde retriever. Onze retriever is getraind om historische documenten die door de gebruiker zijn geschreven te selecteren voor prompt-augmentatie, zodat deze waarschijnlijk de LLM-generaties het best personaliseren voor een gebruikersverzoek. We introduceren twee belangrijke innovaties voor het trainen van onze retriever: 1) Een methode voor het selecteren van trainingsgegevens die gebruikersverzoeken identificeert die waarschijnlijk baat hebben bij personalisatie en documenten die die voordelen bieden; en 2) Een scale-calibrating KL-divergentie-objectief dat ervoor zorgt dat onze retriever nauwlettend het voordeel van een document voor gepersonaliseerde generatie volgt. We demonstreren de effectiviteit van PEARL in het genereren van gepersonaliseerde sociale media-berichten op de werkplek en Reddit-reacties. Tot slot tonen we het potentieel aan van een generatie-gekalibreerde retriever om ook als prestatievoorspeller te fungeren en generaties van lage kwaliteit verder te verbeteren via LLM-chaining.
English
Powerful large language models have facilitated the development of writing assistants that promise to significantly improve the quality and efficiency of composition and communication. However, a barrier to effective assistance is the lack of personalization in LLM outputs to the author's communication style and specialized knowledge. In this paper, we address this challenge by proposing PEARL, a retrieval-augmented LLM writing assistant personalized with a generation-calibrated retriever. Our retriever is trained to select historic user-authored documents for prompt augmentation, such that they are likely to best personalize LLM generations for a user request. We propose two key novelties for training our retriever: 1) A training data selection method that identifies user requests likely to benefit from personalization and documents that provide that benefit; and 2) A scale-calibrating KL-divergence objective that ensures that our retriever closely tracks the benefit of a document for personalized generation. We demonstrate the effectiveness of PEARL in generating personalized workplace social media posts and Reddit comments. Finally, we showcase the potential of a generation-calibrated retriever to double as a performance predictor and further improve low-quality generations via LLM chaining.
PDF80December 15, 2024