Offene Probleme und grundlegende Grenzen des Reinforcement Learning aus menschlichem Feedback
Open Problems and Fundamental Limitations of Reinforcement Learning from Human Feedback
July 27, 2023
Autoren: Stephen Casper, Xander Davies, Claudia Shi, Thomas Krendl Gilbert, Jérémy Scheurer, Javier Rando, Rachel Freedman, Tomasz Korbak, David Lindner, Pedro Freire, Tony Wang, Samuel Marks, Charbel-Raphaël Segerie, Micah Carroll, Andi Peng, Phillip Christoffersen, Mehul Damani, Stewart Slocum, Usman Anwar, Anand Siththaranjan, Max Nadeau, Eric J. Michaud, Jacob Pfau, Dmitrii Krasheninnikov, Xin Chen, Lauro Langosco, Peter Hase, Erdem Bıyık, Anca Dragan, David Krueger, Dorsa Sadigh, Dylan Hadfield-Menell
cs.AI
Zusammenfassung
Reinforcement Learning from Human Feedback (RLHF) ist eine Technik zur Schulung von KI-Systemen, um diese mit menschlichen Zielen in Einklang zu bringen. RLHF hat sich als zentrale Methode etabliert, um modernste große Sprachmodelle (Large Language Models, LLMs) zu verfeinern. Trotz dieser Beliebtheit gibt es bisher relativ wenig öffentliche Arbeit, die ihre Schwächen systematisch untersucht. In diesem Papier (1) beleuchten wir offene Probleme und grundlegende Einschränkungen von RLHF und verwandten Methoden, (2) geben einen Überblick über Techniken, um RLHF in der Praxis zu verstehen, zu verbessern und zu ergänzen, und (3) schlagen Auditing- und Offenlegungsstandards vor, um die gesellschaftliche Aufsicht über RLHF-Systeme zu stärken. Unsere Arbeit betont die Grenzen von RLHF und unterstreicht die Bedeutung eines vielschichtigen Ansatzes für die Entwicklung sichererer KI-Systeme.
English
Reinforcement learning from human feedback (RLHF) is a technique for training
AI systems to align with human goals. RLHF has emerged as the central method
used to finetune state-of-the-art large language models (LLMs). Despite this
popularity, there has been relatively little public work systematizing its
flaws. In this paper, we (1) survey open problems and fundamental limitations
of RLHF and related methods; (2) overview techniques to understand, improve,
and complement RLHF in practice; and (3) propose auditing and disclosure
standards to improve societal oversight of RLHF systems. Our work emphasizes
the limitations of RLHF and highlights the importance of a multi-faceted
approach to the development of safer AI systems.