Problemi Aperti e Limitazioni Fondamentali dell'Apprendimento per Rinforzo da Feedback Umano
Open Problems and Fundamental Limitations of Reinforcement Learning from Human Feedback
July 27, 2023
Autori: Stephen Casper, Xander Davies, Claudia Shi, Thomas Krendl Gilbert, Jérémy Scheurer, Javier Rando, Rachel Freedman, Tomasz Korbak, David Lindner, Pedro Freire, Tony Wang, Samuel Marks, Charbel-Raphaël Segerie, Micah Carroll, Andi Peng, Phillip Christoffersen, Mehul Damani, Stewart Slocum, Usman Anwar, Anand Siththaranjan, Max Nadeau, Eric J. Michaud, Jacob Pfau, Dmitrii Krasheninnikov, Xin Chen, Lauro Langosco, Peter Hase, Erdem Bıyık, Anca Dragan, David Krueger, Dorsa Sadigh, Dylan Hadfield-Menell
cs.AI
Abstract
L'apprendimento per rinforzo con feedback umano (RLHF) è una tecnica per addestrare sistemi di intelligenza artificiale ad allinearsi con gli obiettivi umani. RLHF è emerso come il metodo principale utilizzato per affinare i modelli linguistici di grandi dimensioni (LLM) all'avanguardia. Nonostante questa popolarità, c'è stato relativamente poco lavoro pubblico che sistematizza i suoi difetti. In questo articolo, (1) esaminiamo i problemi aperti e le limitazioni fondamentali di RLHF e dei metodi correlati; (2) forniamo una panoramica delle tecniche per comprendere, migliorare e integrare RLHF nella pratica; e (3) proponiamo standard di audit e divulgazione per migliorare il controllo sociale sui sistemi RLHF. Il nostro lavoro sottolinea le limitazioni di RLHF e evidenzia l'importanza di un approccio multifaccettato per lo sviluppo di sistemi di intelligenza artificiale più sicuri.
English
Reinforcement learning from human feedback (RLHF) is a technique for training
AI systems to align with human goals. RLHF has emerged as the central method
used to finetune state-of-the-art large language models (LLMs). Despite this
popularity, there has been relatively little public work systematizing its
flaws. In this paper, we (1) survey open problems and fundamental limitations
of RLHF and related methods; (2) overview techniques to understand, improve,
and complement RLHF in practice; and (3) propose auditing and disclosure
standards to improve societal oversight of RLHF systems. Our work emphasizes
the limitations of RLHF and highlights the importance of a multi-faceted
approach to the development of safer AI systems.