Открытое распространение высокопроизводительных базовых моделей: оценка рисков, преимуществ и альтернативных подходов для достижения целей открытого исходного кода
Open-Sourcing Highly Capable Foundation Models: An evaluation of risks, benefits, and alternative methods for pursuing open-source objectives
September 29, 2023
Авторы: Elizabeth Seger, Noemi Dreksler, Richard Moulange, Emily Dardaman, Jonas Schuett, K. Wei, Christoph Winter, Mackenzie Arnold, Seán Ó hÉigeartaigh, Anton Korinek, Markus Anderljung, Ben Bucknall, Alan Chan, Eoghan Stafford, Leonie Koessler, Aviv Ovadya, Ben Garfinkel, Emma Bluemke, Michael Aird, Patrick Levermore, Julian Hazell, Abhishek Gupta
cs.AI
Аннотация
Недавние решения ведущих лабораторий искусственного интеллекта либо открыть исходный код своих моделей, либо ограничить доступ к ним вызвали дискуссии о том, следует ли и как делиться всё более мощными моделями ИИ. Открытие исходного кода в ИИ обычно подразумевает свободный и публичный доступ к архитектуре модели и её весам, что позволяет любому модифицировать, изучать, развивать и использовать их. Это предоставляет такие преимущества, как возможность внешнего контроля, ускорение прогресса и децентрализация управления разработкой и использованием ИИ. Однако это также увеличивает потенциал для злоупотреблений и непредвиденных последствий. В данной работе проводится анализ рисков и преимуществ открытия исходного кода высокоэффективных базовых моделей. Хотя открытие исходного кода исторически приносило значительные чистые выгоды для большинства процессов разработки программного обеспечения и ИИ, мы утверждаем, что для некоторых высокоэффективных базовых моделей, которые, вероятно, будут разработаны в ближайшем будущем, открытие исходного кода может представлять настолько серьёзные риски, что они перевесят преимущества. В таких случаях высокоэффективные базовые модели не следует открывать, по крайней мере, изначально. Рассматриваются альтернативные стратегии, включая варианты обмена моделями без открытия исходного кода. В заключение статьи предлагаются рекомендации для разработчиков, органов по стандартизации и правительств по установлению безопасных и ответственных практик обмена моделями и сохранению преимуществ открытого исходного кода там, где это безопасно.
English
Recent decisions by leading AI labs to either open-source their models or to
restrict access to their models has sparked debate about whether, and how,
increasingly capable AI models should be shared. Open-sourcing in AI typically
refers to making model architecture and weights freely and publicly accessible
for anyone to modify, study, build on, and use. This offers advantages such as
enabling external oversight, accelerating progress, and decentralizing control
over AI development and use. However, it also presents a growing potential for
misuse and unintended consequences. This paper offers an examination of the
risks and benefits of open-sourcing highly capable foundation models. While
open-sourcing has historically provided substantial net benefits for most
software and AI development processes, we argue that for some highly capable
foundation models likely to be developed in the near future, open-sourcing may
pose sufficiently extreme risks to outweigh the benefits. In such a case,
highly capable foundation models should not be open-sourced, at least not
initially. Alternative strategies, including non-open-source model sharing
options, are explored. The paper concludes with recommendations for developers,
standard-setting bodies, and governments for establishing safe and responsible
model sharing practices and preserving open-source benefits where safe.