ChatPaper.aiChatPaper

Libérer en open source des modèles de base hautement performants : une évaluation des risques, des avantages et des méthodes alternatives pour atteindre les objectifs de l'open source

Open-Sourcing Highly Capable Foundation Models: An evaluation of risks, benefits, and alternative methods for pursuing open-source objectives

September 29, 2023
Auteurs: Elizabeth Seger, Noemi Dreksler, Richard Moulange, Emily Dardaman, Jonas Schuett, K. Wei, Christoph Winter, Mackenzie Arnold, Seán Ó hÉigeartaigh, Anton Korinek, Markus Anderljung, Ben Bucknall, Alan Chan, Eoghan Stafford, Leonie Koessler, Aviv Ovadya, Ben Garfinkel, Emma Bluemke, Michael Aird, Patrick Levermore, Julian Hazell, Abhishek Gupta
cs.AI

Résumé

Les récentes décisions des principaux laboratoires d'IA de rendre leurs modèles open-source ou de restreindre leur accès ont suscité un débat sur la question de savoir si, et comment, les modèles d'IA de plus en plus performants devraient être partagés. L'open-source en IA fait généralement référence à la mise à disposition publique et gratuite de l'architecture des modèles et de leurs poids, permettant à quiconque de les modifier, de les étudier, de les améliorer et de les utiliser. Cela présente des avantages tels que la possibilité d'un contrôle externe, l'accélération des progrès et la décentralisation du contrôle sur le développement et l'utilisation de l'IA. Cependant, cela comporte également un potentiel croissant de mésusage et de conséquences imprévues. Ce document propose une analyse des risques et des avantages de l'open-source pour les modèles de base hautement performants. Bien que l'open-source ait historiquement apporté des bénéfices nets substantiels pour la plupart des processus de développement de logiciels et d'IA, nous soutenons que pour certains modèles de base hautement performants susceptibles d'être développés dans un avenir proche, l'open-source pourrait présenter des risques suffisamment extrêmes pour surpasser les avantages. Dans un tel cas, les modèles de base hautement performants ne devraient pas être rendus open-source, du moins pas initialement. Des stratégies alternatives, y compris des options de partage de modèles non open-source, sont explorées. Le document conclut par des recommandations à l'intention des développeurs, des organismes de normalisation et des gouvernements pour établir des pratiques de partage de modèles sûres et responsables, tout en préservant les avantages de l'open-source lorsque cela est sécurisé.
English
Recent decisions by leading AI labs to either open-source their models or to restrict access to their models has sparked debate about whether, and how, increasingly capable AI models should be shared. Open-sourcing in AI typically refers to making model architecture and weights freely and publicly accessible for anyone to modify, study, build on, and use. This offers advantages such as enabling external oversight, accelerating progress, and decentralizing control over AI development and use. However, it also presents a growing potential for misuse and unintended consequences. This paper offers an examination of the risks and benefits of open-sourcing highly capable foundation models. While open-sourcing has historically provided substantial net benefits for most software and AI development processes, we argue that for some highly capable foundation models likely to be developed in the near future, open-sourcing may pose sufficiently extreme risks to outweigh the benefits. In such a case, highly capable foundation models should not be open-sourced, at least not initially. Alternative strategies, including non-open-source model sharing options, are explored. The paper concludes with recommendations for developers, standard-setting bodies, and governments for establishing safe and responsible model sharing practices and preserving open-source benefits where safe.
PDF80December 15, 2024