ChatPaper.aiChatPaper

Ein langer Weg vor uns: Untersuchung von Längenkorrelationen in RLHF

A Long Way to Go: Investigating Length Correlations in RLHF

October 5, 2023
papers.authors: Prasann Singhal, Tanya Goyal, Jiacheng Xu, Greg Durrett
cs.AI

papers.abstract

Große Erfolge wurden mit Reinforcement Learning from Human Feedback (RLHF) gemeldet, um große Sprachmodelle auszurichten. Open-Source-Präferenzdatensätze und Belohnungsmodelle haben eine breitere Experimentation über generische Chat-Einstellungen hinaus ermöglicht, insbesondere um Systeme für Aufgaben wie Web-Fragebeantwortung, Zusammenfassung und mehrschrittige Dialoge „hilfreicher“ zu machen. Bei der Optimierung auf Hilfsbereitschaft wurde durchweg beobachtet, dass RLHF Modelle dazu antreibt, längere Ausgaben zu erzeugen. Diese Arbeit zeigt, dass die Optimierung der Antwortlänge ein wesentlicher Faktor hinter den gemeldeten Verbesserungen von RLHF in diesen Einstellungen ist. Zunächst untersuchen wir die Beziehung zwischen Belohnung und Länge für Belohnungsmodelle, die auf drei Open-Source-Präferenzdatensätzen für Hilfsbereitschaft trainiert wurden. Hier korreliert die Länge stark mit der Belohnung, und Verbesserungen im Belohnungswert werden größtenteils durch eine Verschiebung der Verteilung über die Ausgabelängen erreicht. Anschließend untersuchen wir Interventionen während des RL- und Belohnungsmodell-Lernens, um zu sehen, ob wir die gleichen nachgelagerten Verbesserungen wie RLHF erzielen können, ohne die Länge zu erhöhen. Während unsere Interventionen Längenzunahmen mildern, sind sie nicht einheitlich effektiv über alle Einstellungen hinweg. Darüber hinaus stellen wir fest, dass selbst die Ausführung von RLHF mit einer Belohnung, die ausschließlich auf der Länge basiert, die meisten der nachgelagerten Verbesserungen gegenüber dem ursprünglichen Richtlinienmodell reproduzieren kann, was zeigt, dass Belohnungsmodelle in diesen Einstellungen noch einen langen Weg vor sich haben.
English
Great successes have been reported using Reinforcement Learning from Human Feedback (RLHF) to align large language models. Open-source preference datasets and reward models have enabled wider experimentation beyond generic chat settings, particularly to make systems more "helpful" for tasks like web question answering, summarization, and multi-turn dialogue. When optimizing for helpfulness, RLHF has been consistently observed to drive models to produce longer outputs. This paper demonstrates that optimizing for response length is a significant factor behind RLHF's reported improvements in these settings. First, we study the relationship between reward and length for reward models trained on three open-source preference datasets for helpfulness. Here, length correlates strongly with reward, and improvements in reward score are driven in large part by shifting the distribution over output lengths. We then explore interventions during both RL and reward model learning to see if we can achieve the same downstream improvements as RLHF without increasing length. While our interventions mitigate length increases, they aren't uniformly effective across settings. Furthermore, we find that even running RLHF with a reward based solely on length can reproduce most of the downstream improvements over the initial policy model, showing that reward models in these settings have a long way to go.
PDF101December 15, 2024