ChatPaper.aiChatPaper

Problèmes ouverts et limitations fondamentales de l'apprentissage par renforcement à partir de retours humains

Open Problems and Fundamental Limitations of Reinforcement Learning from Human Feedback

July 27, 2023
Auteurs: Stephen Casper, Xander Davies, Claudia Shi, Thomas Krendl Gilbert, Jérémy Scheurer, Javier Rando, Rachel Freedman, Tomasz Korbak, David Lindner, Pedro Freire, Tony Wang, Samuel Marks, Charbel-Raphaël Segerie, Micah Carroll, Andi Peng, Phillip Christoffersen, Mehul Damani, Stewart Slocum, Usman Anwar, Anand Siththaranjan, Max Nadeau, Eric J. Michaud, Jacob Pfau, Dmitrii Krasheninnikov, Xin Chen, Lauro Langosco, Peter Hase, Erdem Bıyık, Anca Dragan, David Krueger, Dorsa Sadigh, Dylan Hadfield-Menell
cs.AI

Résumé

L'apprentissage par renforcement à partir de retours humains (RLHF) est une technique permettant d'entraîner des systèmes d'IA à s'aligner sur les objectifs humains. Le RLHF est devenu la méthode centrale utilisée pour affiner les modèles de langage de pointe (LLMs). Malgré cette popularité, peu de travaux publics ont systématisé ses défauts. Dans cet article, nous (1) examinons les problèmes ouverts et les limitations fondamentales du RLHF et des méthodes associées ; (2) passons en revue les techniques pour comprendre, améliorer et compléter le RLHF en pratique ; et (3) proposons des normes d'audit et de divulgation pour renforcer la supervision sociétale des systèmes RLHF. Notre travail met en lumière les limites du RLHF et souligne l'importance d'une approche multifacette pour le développement de systèmes d'IA plus sûrs.
English
Reinforcement learning from human feedback (RLHF) is a technique for training AI systems to align with human goals. RLHF has emerged as the central method used to finetune state-of-the-art large language models (LLMs). Despite this popularity, there has been relatively little public work systematizing its flaws. In this paper, we (1) survey open problems and fundamental limitations of RLHF and related methods; (2) overview techniques to understand, improve, and complement RLHF in practice; and (3) propose auditing and disclosure standards to improve societal oversight of RLHF systems. Our work emphasizes the limitations of RLHF and highlights the importance of a multi-faceted approach to the development of safer AI systems.
PDF384December 15, 2024