ChatPaper.aiChatPaper

PEARL: Personalizando Assistentes de Escrita com Modelos de Linguagem de Grande Escala Usando Recuperadores Calibrados para Geração

PEARL: Personalizing Large Language Model Writing Assistants with Generation-Calibrated Retrievers

November 15, 2023
Autores: Sheshera Mysore, Zhuoran Lu, Mengting Wan, Longqi Yang, Steve Menezes, Tina Baghaee, Emmanuel Barajas Gonzalez, Jennifer Neville, Tara Safavi
cs.AI

Resumo

Modelos de linguagem grandes e poderosos têm facilitado o desenvolvimento de assistentes de escrita que prometem melhorar significativamente a qualidade e a eficiência da composição e da comunicação. No entanto, uma barreira para uma assistência eficaz é a falta de personalização nas saídas dos LLMs para o estilo de comunicação e o conhecimento especializado do autor. Neste artigo, abordamos esse desafio propondo o PEARL, um assistente de escrita baseado em LLM aumentado por recuperação e personalizado com um recuperador calibrado para geração. Nosso recuperador é treinado para selecionar documentos históricos escritos pelo usuário para aumentar o prompt, de forma que sejam mais propensos a personalizar as gerações do LLM para uma solicitação do usuário. Propomos duas inovações principais para o treinamento do nosso recuperador: 1) Um método de seleção de dados de treinamento que identifica solicitações do usuário que provavelmente se beneficiarão da personalização e documentos que fornecem esse benefício; e 2) Um objetivo de divergência KL com calibração de escala que garante que nosso recuperador acompanhe de perto o benefício de um documento para a geração personalizada. Demonstramos a eficácia do PEARL na geração de posts personalizados para mídias sociais no local de trabalho e comentários no Reddit. Por fim, mostramos o potencial de um recuperador calibrado para geração de atuar também como um preditor de desempenho e melhorar ainda mais gerações de baixa qualidade por meio de encadeamento de LLMs.
English
Powerful large language models have facilitated the development of writing assistants that promise to significantly improve the quality and efficiency of composition and communication. However, a barrier to effective assistance is the lack of personalization in LLM outputs to the author's communication style and specialized knowledge. In this paper, we address this challenge by proposing PEARL, a retrieval-augmented LLM writing assistant personalized with a generation-calibrated retriever. Our retriever is trained to select historic user-authored documents for prompt augmentation, such that they are likely to best personalize LLM generations for a user request. We propose two key novelties for training our retriever: 1) A training data selection method that identifies user requests likely to benefit from personalization and documents that provide that benefit; and 2) A scale-calibrating KL-divergence objective that ensures that our retriever closely tracks the benefit of a document for personalized generation. We demonstrate the effectiveness of PEARL in generating personalized workplace social media posts and Reddit comments. Finally, we showcase the potential of a generation-calibrated retriever to double as a performance predictor and further improve low-quality generations via LLM chaining.
PDF80December 15, 2024