Open-Sourcing van zeer capabele foundation models: Een evaluatie van risico's, voordelen en alternatieve methoden voor het nastreven van open-source doelstellingen
Open-Sourcing Highly Capable Foundation Models: An evaluation of risks, benefits, and alternative methods for pursuing open-source objectives
September 29, 2023
Auteurs: Elizabeth Seger, Noemi Dreksler, Richard Moulange, Emily Dardaman, Jonas Schuett, K. Wei, Christoph Winter, Mackenzie Arnold, Seán Ó hÉigeartaigh, Anton Korinek, Markus Anderljung, Ben Bucknall, Alan Chan, Eoghan Stafford, Leonie Koessler, Aviv Ovadya, Ben Garfinkel, Emma Bluemke, Michael Aird, Patrick Levermore, Julian Hazell, Abhishek Gupta
cs.AI
Samenvatting
Recente beslissingen van toonaangevende AI-labs om hun modellen open-source te maken of de toegang tot hun modellen te beperken, hebben een debat op gang gebracht over of, en hoe, steeds krachtigere AI-modellen gedeeld zouden moeten worden. Open-sourcing in AI verwijst doorgaans naar het vrij en publiekelijk toegankelijk maken van modelarchitectuur en gewichten, zodat iedereen deze kan aanpassen, bestuderen, op voortbouwen en gebruiken. Dit biedt voordelen zoals het mogelijk maken van externe controle, het versnellen van vooruitgang en het decentraliseren van controle over AI-ontwikkeling en -gebruik. Het brengt echter ook een groeiend potentieel voor misbruik en onbedoelde gevolgen met zich mee. Dit artikel biedt een onderzoek naar de risico's en voordelen van het open-sourcen van zeer krachtige foundationmodellen. Hoewel open-sourcing historisch gezien aanzienlijke netto-voordelen heeft opgeleverd voor de meeste software- en AI-ontwikkelingsprocessen, stellen wij dat voor sommige zeer krachtige foundationmodellen die waarschijnlijk in de nabije toekomst zullen worden ontwikkeld, open-sourcing voldoende extreme risico's kan opleveren om de voordelen te overtreffen. In zo'n geval zouden zeer krachtige foundationmodellen niet open-source gemaakt moeten worden, althans niet in eerste instantie. Alternatieve strategieën, waaronder niet-open-source modeldelingopties, worden onderzocht. Het artikel sluit af met aanbevelingen voor ontwikkelaars, standaardiseringsorganisaties en overheden voor het vaststellen van veilige en verantwoorde praktijken voor het delen van modellen en het behouden van open-source voordelen waar dit veilig is.
English
Recent decisions by leading AI labs to either open-source their models or to
restrict access to their models has sparked debate about whether, and how,
increasingly capable AI models should be shared. Open-sourcing in AI typically
refers to making model architecture and weights freely and publicly accessible
for anyone to modify, study, build on, and use. This offers advantages such as
enabling external oversight, accelerating progress, and decentralizing control
over AI development and use. However, it also presents a growing potential for
misuse and unintended consequences. This paper offers an examination of the
risks and benefits of open-sourcing highly capable foundation models. While
open-sourcing has historically provided substantial net benefits for most
software and AI development processes, we argue that for some highly capable
foundation models likely to be developed in the near future, open-sourcing may
pose sufficiently extreme risks to outweigh the benefits. In such a case,
highly capable foundation models should not be open-sourced, at least not
initially. Alternative strategies, including non-open-source model sharing
options, are explored. The paper concludes with recommendations for developers,
standard-setting bodies, and governments for establishing safe and responsible
model sharing practices and preserving open-source benefits where safe.