ChatPaper.aiChatPaper

Измерение запоминания в RLHF для завершения кода

Measuring memorization in RLHF for code completion

June 17, 2024
Авторы: Aneesh Pappu, Billy Porter, Ilia Shumailov, Jamie Hayes
cs.AI

Аннотация

Обучение с подкреплением с обратной связью от человека (RLHF) стало доминирующим методом выравнивания больших моделей на предпочтения пользователей. В отличие от тонкой настройки, для которой существует множество исследований по запоминанию обучающих данных, неясно, как запоминание влияет на процесс выравнивания RLHF или как оно в него внедряется. Понимание этого взаимодействия важно, поскольку реальные данные пользователей могут быть собраны и использованы для выравнивания больших моделей; если данные пользователей запоминаются во время RLHF и позднее воспроизводятся, это может вызвать проблемы с конфиденциальностью. В данной работе мы анализируем, как запоминание обучающих данных может проявляться и распространяться через каждую фазу RLHF. Мы фокусируем наше исследование на моделях завершения кода, поскольку завершение кода является одним из самых популярных случаев использования больших языковых моделей. Мы обнаружили, что RLHF значительно уменьшает вероятность запоминания данных, используемых для моделирования вознаграждения и обучения с подкреплением, по сравнению с выравниванием путем прямой тонкой настройки на эти данные, но примеры, уже запомненные на этапе тонкой настройки RLHF, в большинстве случаев останутся запомненными после RLHF.
English
Reinforcement learning with human feedback (RLHF) has become the dominant method to align large models to user preferences. Unlike fine-tuning, for which there are many studies regarding training data memorization, it is not clear how memorization is affected by or introduced in the RLHF alignment process. Understanding this relationship is important as real user data may be collected and used to align large models; if user data is memorized during RLHF and later regurgitated, this could raise privacy concerns. In this work, we analyze how training data memorization can surface and propagate through each phase of RLHF. We focus our study on code completion models, as code completion is one of the most popular use cases for large language models. We find that RLHF significantly decreases the chance that data used for reward modeling and reinforcement learning is memorized, in comparison to aligning via directly fine-tuning on this data, but that examples already memorized during the fine-tuning stage of RLHF, will, in the majority of cases, remain memorized after RLHF.
PDF71December 3, 2024