Problemas Abertos e Limitações Fundamentais do Aprendizado por Reforço com Feedback Humano
Open Problems and Fundamental Limitations of Reinforcement Learning from Human Feedback
July 27, 2023
Autores: Stephen Casper, Xander Davies, Claudia Shi, Thomas Krendl Gilbert, Jérémy Scheurer, Javier Rando, Rachel Freedman, Tomasz Korbak, David Lindner, Pedro Freire, Tony Wang, Samuel Marks, Charbel-Raphaël Segerie, Micah Carroll, Andi Peng, Phillip Christoffersen, Mehul Damani, Stewart Slocum, Usman Anwar, Anand Siththaranjan, Max Nadeau, Eric J. Michaud, Jacob Pfau, Dmitrii Krasheninnikov, Xin Chen, Lauro Langosco, Peter Hase, Erdem Bıyık, Anca Dragan, David Krueger, Dorsa Sadigh, Dylan Hadfield-Menell
cs.AI
Resumo
O aprendizado por reforço com feedback humano (RLHF) é uma técnica para treinar sistemas de IA para se alinharem com objetivos humanos. O RLHF emergiu como o método central utilizado para ajustar modelos de linguagem de última geração (LLMs). Apesar dessa popularidade, houve relativamente pouco trabalho público sistematizando suas falhas. Neste artigo, nós (1) examinamos problemas em aberto e limitações fundamentais do RLHF e métodos relacionados; (2) apresentamos uma visão geral de técnicas para compreender, melhorar e complementar o RLHF na prática; e (3) propomos padrões de auditoria e divulgação para melhorar a supervisão social dos sistemas RLHF. Nosso trabalho enfatiza as limitações do RLHF e destaca a importância de uma abordagem multifacetada para o desenvolvimento de sistemas de IA mais seguros.
English
Reinforcement learning from human feedback (RLHF) is a technique for training
AI systems to align with human goals. RLHF has emerged as the central method
used to finetune state-of-the-art large language models (LLMs). Despite this
popularity, there has been relatively little public work systematizing its
flaws. In this paper, we (1) survey open problems and fundamental limitations
of RLHF and related methods; (2) overview techniques to understand, improve,
and complement RLHF in practice; and (3) propose auditing and disclosure
standards to improve societal oversight of RLHF systems. Our work emphasizes
the limitations of RLHF and highlights the importance of a multi-faceted
approach to the development of safer AI systems.