ChatPaper.aiChatPaper

Lois d'échelle pour la sur-optimisation des modèles de récompense dans les algorithmes d'alignement direct

Scaling Laws for Reward Model Overoptimization in Direct Alignment Algorithms

June 5, 2024
Auteurs: Rafael Rafailov, Yaswanth Chittepu, Ryan Park, Harshit Sikchi, Joey Hejna, Bradley Knox, Chelsea Finn, Scott Niekum
cs.AI

Résumé

L'apprentissage par renforcement à partir de retours humains (RLHF) a été crucial pour le succès récent des grands modèles de langage (LLMs), mais il s'agit souvent d'un processus complexe et fragile. Dans le cadre classique du RLHF, un modèle de récompense est d'abord entraîné pour représenter les préférences humaines, qui est ensuite utilisé par un algorithme d'apprentissage par renforcement (RL) en ligne pour optimiser le LLM. Un problème majeur avec ces méthodes est la sur-optimisation ou le détournement des récompenses, où la performance mesurée par le modèle de récompense appris augmente, mais la qualité réelle stagne ou même se détériore. Les algorithmes d'alignement direct (DAAs) comme l'optimisation directe des préférences ont émergé comme alternatives au pipeline classique du RLHF en contournant la phase de modélisation des récompenses. Cependant, bien que les DAAs n'utilisent pas de modèle de récompense proxy séparé, ils se détériorent encore souvent à cause de la sur-optimisation. Bien que le phénomène de détournement des récompenses ne soit pas bien défini pour les DAAs, nous observons des tendances similaires : à des budgets KL plus élevés, les algorithmes DAAs présentent des schémas de dégradation similaires à leurs homologues classiques du RLHF. En particulier, nous constatons que les méthodes DAAs se détériorent non seulement sur une large gamme de budgets KL, mais aussi souvent avant même qu'une seule époque du jeu de données ne soit terminée. À travers une expérimentation empirique approfondie, ce travail formule et formalise le problème de sur-optimisation ou de détournement des récompenses pour les DAAs et explore ses conséquences à travers les objectifs, les régimes d'entraînement et les échelles de modèles.
English
Reinforcement Learning from Human Feedback (RLHF) has been crucial to the recent success of Large Language Models (LLMs), however, it is often a complex and brittle process. In the classical RLHF framework, a reward model is first trained to represent human preferences, which is in turn used by an online reinforcement learning (RL) algorithm to optimize the LLM. A prominent issue with such methods is reward over-optimization or reward hacking, where performance as measured by the learned proxy reward model increases, but true quality plateaus or even deteriorates. Direct Alignment Algorithms (DDAs) like Direct Preference Optimization have emerged as alternatives to the classical RLHF pipeline by circumventing the reward modeling phase. However, although DAAs do not use a separate proxy reward model, they still commonly deteriorate from over-optimization. While the so-called reward hacking phenomenon is not well-defined for DAAs, we still uncover similar trends: at higher KL budgets, DAA algorithms exhibit similar degradation patterns to their classic RLHF counterparts. In particular, we find that DAA methods deteriorate not only across a wide range of KL budgets but also often before even a single epoch of the dataset is completed. Through extensive empirical experimentation, this work formulates and formalizes the reward over-optimization or hacking problem for DAAs and explores its consequences across objectives, training regimes, and model scales.

Summary

AI-Generated Summary

PDF140December 12, 2024