ChatPaper.aiChatPaper

Problemas Abiertos y Limitaciones Fundamentales del Aprendizaje por Refuerzo a partir de Retroalimentación Humana

Open Problems and Fundamental Limitations of Reinforcement Learning from Human Feedback

July 27, 2023
Autores: Stephen Casper, Xander Davies, Claudia Shi, Thomas Krendl Gilbert, Jérémy Scheurer, Javier Rando, Rachel Freedman, Tomasz Korbak, David Lindner, Pedro Freire, Tony Wang, Samuel Marks, Charbel-Raphaël Segerie, Micah Carroll, Andi Peng, Phillip Christoffersen, Mehul Damani, Stewart Slocum, Usman Anwar, Anand Siththaranjan, Max Nadeau, Eric J. Michaud, Jacob Pfau, Dmitrii Krasheninnikov, Xin Chen, Lauro Langosco, Peter Hase, Erdem Bıyık, Anca Dragan, David Krueger, Dorsa Sadigh, Dylan Hadfield-Menell
cs.AI

Resumen

El aprendizaje por refuerzo a partir de retroalimentación humana (RLHF, por sus siglas en inglés) es una técnica para entrenar sistemas de IA con el fin de alinearlos con los objetivos humanos. RLHF ha surgido como el método central utilizado para ajustar modelos de lenguaje de última generación (LLMs). A pesar de su popularidad, ha habido relativamente poco trabajo público que sistematice sus defectos. En este artículo, (1) examinamos problemas abiertos y limitaciones fundamentales de RLHF y métodos relacionados; (2) presentamos una visión general de técnicas para comprender, mejorar y complementar RLHF en la práctica; y (3) proponemos estándares de auditoría y divulgación para mejorar la supervisión social de los sistemas RLHF. Nuestro trabajo enfatiza las limitaciones de RLHF y destaca la importancia de un enfoque multifacético para el desarrollo de sistemas de IA más seguros.
English
Reinforcement learning from human feedback (RLHF) is a technique for training AI systems to align with human goals. RLHF has emerged as the central method used to finetune state-of-the-art large language models (LLMs). Despite this popularity, there has been relatively little public work systematizing its flaws. In this paper, we (1) survey open problems and fundamental limitations of RLHF and related methods; (2) overview techniques to understand, improve, and complement RLHF in practice; and (3) propose auditing and disclosure standards to improve societal oversight of RLHF systems. Our work emphasizes the limitations of RLHF and highlights the importance of a multi-faceted approach to the development of safer AI systems.
PDF384December 15, 2024