Open Problemen en Fundamentele Beperkingen van Reinforcement Learning met Menselijke Feedback
Open Problems and Fundamental Limitations of Reinforcement Learning from Human Feedback
July 27, 2023
Auteurs: Stephen Casper, Xander Davies, Claudia Shi, Thomas Krendl Gilbert, Jérémy Scheurer, Javier Rando, Rachel Freedman, Tomasz Korbak, David Lindner, Pedro Freire, Tony Wang, Samuel Marks, Charbel-Raphaël Segerie, Micah Carroll, Andi Peng, Phillip Christoffersen, Mehul Damani, Stewart Slocum, Usman Anwar, Anand Siththaranjan, Max Nadeau, Eric J. Michaud, Jacob Pfau, Dmitrii Krasheninnikov, Xin Chen, Lauro Langosco, Peter Hase, Erdem Bıyık, Anca Dragan, David Krueger, Dorsa Sadigh, Dylan Hadfield-Menell
cs.AI
Samenvatting
Reinforcement learning from human feedback (RLHF) is een techniek voor het trainen van AI-systemen om af te stemmen op menselijke doelen. RLHF is naar voren gekomen als de centrale methode die wordt gebruikt om state-of-the-art grote taalmodelen (LLMs) te finetunen. Ondanks deze populariteit is er relatief weinig openbaar werk geweest dat de tekortkomingen ervan systematiseert. In dit artikel (1) onderzoeken we openstaande problemen en fundamentele beperkingen van RLHF en gerelateerde methoden; (2) geven we een overzicht van technieken om RLHF in de praktijk te begrijpen, te verbeteren en aan te vullen; en (3) stellen we audit- en openbaarmakingsstandaarden voor om het maatschappelijk toezicht op RLHF-systemen te verbeteren. Ons werk benadrukt de beperkingen van RLHF en onderstreept het belang van een veelzijdige aanpak voor de ontwikkeling van veiligere AI-systemen.
English
Reinforcement learning from human feedback (RLHF) is a technique for training
AI systems to align with human goals. RLHF has emerged as the central method
used to finetune state-of-the-art large language models (LLMs). Despite this
popularity, there has been relatively little public work systematizing its
flaws. In this paper, we (1) survey open problems and fundamental limitations
of RLHF and related methods; (2) overview techniques to understand, improve,
and complement RLHF in practice; and (3) propose auditing and disclosure
standards to improve societal oversight of RLHF systems. Our work emphasizes
the limitations of RLHF and highlights the importance of a multi-faceted
approach to the development of safer AI systems.