Open-Sourcing di Modelli Fondamentali Altamente Capacitativi: Una valutazione dei rischi, dei benefici e dei metodi alternativi per perseguire obiettivi open-source
Open-Sourcing Highly Capable Foundation Models: An evaluation of risks, benefits, and alternative methods for pursuing open-source objectives
September 29, 2023
Autori: Elizabeth Seger, Noemi Dreksler, Richard Moulange, Emily Dardaman, Jonas Schuett, K. Wei, Christoph Winter, Mackenzie Arnold, Seán Ó hÉigeartaigh, Anton Korinek, Markus Anderljung, Ben Bucknall, Alan Chan, Eoghan Stafford, Leonie Koessler, Aviv Ovadya, Ben Garfinkel, Emma Bluemke, Michael Aird, Patrick Levermore, Julian Hazell, Abhishek Gupta
cs.AI
Abstract
Le recenti decisioni dei principali laboratori di intelligenza artificiale di rendere open-source i propri modelli o di limitarne l'accesso hanno acceso un dibattito su se, e come, i modelli di IA sempre più capaci dovrebbero essere condivisi. L'open-source in ambito AI si riferisce tipicamente alla possibilità di rendere liberamente e pubblicamente accessibili l'architettura e i pesi di un modello, consentendo a chiunque di modificarli, studiarli, costruirci sopra e utilizzarli. Questo offre vantaggi come la possibilità di supervisione esterna, l'accelerazione del progresso e la decentralizzazione del controllo sullo sviluppo e l'uso dell'IA. Tuttavia, presenta anche un potenziale crescente di abuso e conseguenze indesiderate. Questo articolo offre un'analisi dei rischi e dei benefici del rendere open-source modelli di base altamente capaci. Sebbene l'open-source abbia storicamente fornito benefici netti sostanziali per la maggior parte dei processi di sviluppo software e di IA, sosteniamo che per alcuni modelli di base altamente capaci che potrebbero essere sviluppati nel prossimo futuro, l'open-source potrebbe presentare rischi sufficientemente estremi da superare i benefici. In tal caso, i modelli di base altamente capaci non dovrebbero essere resi open-source, almeno non inizialmente. Vengono esplorate strategie alternative, tra cui opzioni di condivisione di modelli non open-source. L'articolo si conclude con raccomandazioni per gli sviluppatori, gli organismi di standardizzazione e i governi per stabilire pratiche di condivisione dei modelli sicure e responsabili e preservare i benefici dell'open-source laddove sia sicuro farlo.
English
Recent decisions by leading AI labs to either open-source their models or to
restrict access to their models has sparked debate about whether, and how,
increasingly capable AI models should be shared. Open-sourcing in AI typically
refers to making model architecture and weights freely and publicly accessible
for anyone to modify, study, build on, and use. This offers advantages such as
enabling external oversight, accelerating progress, and decentralizing control
over AI development and use. However, it also presents a growing potential for
misuse and unintended consequences. This paper offers an examination of the
risks and benefits of open-sourcing highly capable foundation models. While
open-sourcing has historically provided substantial net benefits for most
software and AI development processes, we argue that for some highly capable
foundation models likely to be developed in the near future, open-sourcing may
pose sufficiently extreme risks to outweigh the benefits. In such a case,
highly capable foundation models should not be open-sourced, at least not
initially. Alternative strategies, including non-open-source model sharing
options, are explored. The paper concludes with recommendations for developers,
standard-setting bodies, and governments for establishing safe and responsible
model sharing practices and preserving open-source benefits where safe.