ChatPaper.aiChatPaper

Обучайте большие языковые модели персонализации — подход, вдохновленный обучением письму

Teach LLMs to Personalize -- An Approach inspired by Writing Education

August 15, 2023
Авторы: Cheng Li, Mingyang Zhang, Qiaozhu Mei, Yaqing Wang, Spurthi Amba Hombaiah, Yi Liang, Michael Bendersky
cs.AI

Аннотация

Персонализированная генерация текста — это активно развивающаяся область исследований, которая привлекает значительное внимание в последние годы. Большинство исследований в этом направлении сосредоточено на конкретной предметной области путем разработки специализированных признаков или моделей. В данной работе мы предлагаем универсальный подход для персонализированной генерации текста с использованием больших языковых моделей (LLM). Вдохновленные практикой обучения письму, мы разрабатываем многоэтапную и многозадачную структуру для обучения LLM персонализированной генерации. В обучении письму задача написания текста на основе источников часто разбивается на несколько этапов, включающих поиск, оценку, обобщение, синтез и интеграцию информации. Аналогично, наш подход к персонализированной генерации текста состоит из нескольких этапов: поиск, ранжирование, обобщение, синтез и генерация. Кроме того, мы вводим многозадачную настройку, которая помогает модели дополнительно улучшить способность к генерации, что вдохновлено наблюдением в образовательной практике, согласно которому навыки чтения и письма у студентов часто взаимосвязаны. Мы оцениваем наш подход на трех публичных наборах данных, каждый из которых охватывает разные и репрезентативные области. Наши результаты демонстрируют значительное улучшение по сравнению с различными базовыми методами.
English
Personalized text generation is an emerging research area that has attracted much attention in recent years. Most studies in this direction focus on a particular domain by designing bespoke features or models. In this work, we propose a general approach for personalized text generation using large language models (LLMs). Inspired by the practice of writing education, we develop a multistage and multitask framework to teach LLMs for personalized generation. In writing instruction, the task of writing from sources is often decomposed into multiple steps that involve finding, evaluating, summarizing, synthesizing, and integrating information. Analogously, our approach to personalized text generation consists of multiple stages: retrieval, ranking, summarization, synthesis, and generation. In addition, we introduce a multitask setting that helps the model improve its generation ability further, which is inspired by the observation in education that a student's reading proficiency and writing ability are often correlated. We evaluate our approach on three public datasets, each of which covers a different and representative domain. Our results show significant improvements over a variety of baselines.
PDF260December 15, 2024