ChatPaper.aiChatPaper

DeepSpeed-Chat: Eenvoudige, Snelle en Betaalbare RLHF-training van ChatGPT-achtige Modellen op Alle Schalen

DeepSpeed-Chat: Easy, Fast and Affordable RLHF Training of ChatGPT-like Models at All Scales

August 2, 2023
Auteurs: Zhewei Yao, Reza Yazdani Aminabadi, Olatunji Ruwase, Samyam Rajbhandari, Xiaoxia Wu, Ammar Ahmad Awan, Jeff Rasley, Minjia Zhang, Conglong Li, Connor Holmes, Zhongzhu Zhou, Michael Wyatt, Molly Smith, Lev Kurilenko, Heyang Qin, Masahiro Tanaka, Shuai Che, Shuaiwen Leon Song, Yuxiong He
cs.AI

Samenvatting

ChatGPT-achtige modellen hebben een revolutie teweeggebracht in diverse toepassingen van kunstmatige intelligentie, van samenvatting en codering tot vertaling, waarbij ze menselijke prestaties evenaren of zelfs overtreffen. Het huidige landschap mist echter een toegankelijke, efficiënte en kosteneffectieve end-to-end RLHF (Reinforcement Learning with Human Feedback) trainingspijplijn voor deze krachtige modellen, met name bij het trainen op de schaal van miljarden parameters. Dit artikel introduceert DeepSpeed-Chat, een nieuw systeem dat RLHF-training democratiseert en toegankelijk maakt voor de AI-gemeenschap. DeepSpeed-Chat biedt drie belangrijke mogelijkheden: een gebruiksvriendelijke trainings- en inferentie-ervaring voor ChatGPT-achtige modellen, een DeepSpeed-RLHF-pijplijn die de trainingspijplijn van InstructGPT repliceert, en een robuust DeepSpeed-RLHF-systeem dat diverse optimalisaties voor training en inferentie op een geïntegreerde manier combineert. Het systeem biedt ongeëvenaarde efficiëntie en schaalbaarheid, waardoor het mogelijk wordt om modellen met honderden miljarden parameters in recordtijd en tegen een fractie van de kosten te trainen. Met deze ontwikkeling opent DeepSpeed-Chat de weg naar bredere toegang tot geavanceerde RLHF-training, zelfs voor datawetenschappers met beperkte middelen, en stimuleert daarmee innovatie en verdere ontwikkeling op het gebied van AI.
English
ChatGPT-like models have revolutionized various applications in artificial intelligence, from summarization and coding to translation, matching or even surpassing human performance. However, the current landscape lacks an accessible, efficient, and cost-effective end-to-end RLHF (Reinforcement Learning with Human Feedback) training pipeline for these powerful models, particularly when training at the scale of billions of parameters. This paper introduces DeepSpeed-Chat, a novel system that democratizes RLHF training, making it accessible to the AI community. DeepSpeed-Chat offers three key capabilities: an easy-to-use training and inference experience for ChatGPT-like models, a DeepSpeed-RLHF pipeline that replicates the training pipeline from InstructGPT, and a robust DeepSpeed-RLHF system that combines various optimizations for training and inference in a unified way. The system delivers unparalleled efficiency and scalability, enabling training of models with hundreds of billions of parameters in record time and at a fraction of the cost. With this development, DeepSpeed-Chat paves the way for broader access to advanced RLHF training, even for data scientists with limited resources, thereby fostering innovation and further development in the field of AI.
PDF453December 15, 2024