ChatPaper.aiChatPaper

Statistische afwijzingssteekproeven verbeteren voorkeursoptimalisatie

Statistical Rejection Sampling Improves Preference Optimization

September 13, 2023
Auteurs: Tianqi Liu, Yao Zhao, Rishabh Joshi, Misha Khalman, Mohammad Saleh, Peter J. Liu, Jialu Liu
cs.AI

Samenvatting

Het verbeteren van de afstemming van taalmodelen op menselijke voorkeuren blijft een actieve onderzoeksuitdaging. Eerdere benaderingen maakten voornamelijk gebruik van Reinforcement Learning from Human Feedback (RLHF) via online RL-methoden zoals Proximal Policy Optimization (PPO). Recentelijk zijn offline methoden zoals Sequence Likelihood Calibration (SLiC) en Direct Preference Optimization (DPO) naar voren gekomen als aantrekkelijke alternatieven, die verbeteringen bieden in stabiliteit en schaalbaarheid terwijl ze competitieve prestaties behouden. SLiC verfijnt zijn verliesfunctie met behulp van sequentieparen die zijn bemonsterd uit een supervised fine-tuned (SFT) beleid, terwijl DPO taalmodelen direct optimaliseert op basis van voorkeursdata, zonder de noodzaak van een apart beloningsmodel. Echter, vereist de maximum likelihood estimator (MLE) van het doeloptimale beleid gelabelde voorkeursparen die zijn bemonsterd uit dat beleid. Het ontbreken van een beloningsmodel bij DPO beperkt de mogelijkheid om voorkeursparen te bemonsteren uit het optimale beleid, en SLiC is beperkt tot het bemonsteren van voorkeursparen alleen uit het SFT-beleid. Om deze beperkingen aan te pakken, introduceren we een nieuwe benadering genaamd Statistical Rejection Sampling Optimization (RSO) die streeft naar het verkrijgen van voorkeursdata uit het doeloptimale beleid met behulp van rejection sampling, waardoor een nauwkeurigere schatting van het optimale beleid mogelijk wordt. We stellen ook een uniform raamwerk voor dat de verliesfuncties die worden gebruikt in zowel SLiC als DPO verbetert vanuit een voorkeursmodeleringsperspectief. Door uitgebreide experimenten over drie diverse taken, tonen we aan dat RSO consistent beter presteert dan zowel SLiC als DPO bij evaluaties door zowel Large Language Models (LLM) als menselijke beoordelaars.
English
Improving the alignment of language models with human preferences remains an active research challenge. Previous approaches have primarily utilized Reinforcement Learning from Human Feedback (RLHF) via online RL methods such as Proximal Policy Optimization (PPO). Recently, offline methods such as Sequence Likelihood Calibration (SLiC) and Direct Preference Optimization (DPO) have emerged as attractive alternatives, offering improvements in stability and scalability while maintaining competitive performance. SLiC refines its loss function using sequence pairs sampled from a supervised fine-tuned (SFT) policy, while DPO directly optimizes language models based on preference data, foregoing the need for a separate reward model. However, the maximum likelihood estimator (MLE) of the target optimal policy requires labeled preference pairs sampled from that policy. DPO's lack of a reward model constrains its ability to sample preference pairs from the optimal policy, and SLiC is restricted to sampling preference pairs only from the SFT policy. To address these limitations, we introduce a novel approach called Statistical Rejection Sampling Optimization (RSO) that aims to source preference data from the target optimal policy using rejection sampling, enabling a more accurate estimation of the optimal policy. We also propose a unified framework that enhances the loss functions used in both SLiC and DPO from a preference modeling standpoint. Through extensive experiments across three diverse tasks, we demonstrate that RSO consistently outperforms both SLiC and DPO on evaluations from both Large Language Model (LLM) and human raters.
PDF140December 15, 2024