Publicación de Modelos Fundacionales Altamente Capacitados como Código Abierto: Una evaluación de riesgos, beneficios y métodos alternativos para alcanzar objetivos de código abierto.
Open-Sourcing Highly Capable Foundation Models: An evaluation of risks, benefits, and alternative methods for pursuing open-source objectives
September 29, 2023
Autores: Elizabeth Seger, Noemi Dreksler, Richard Moulange, Emily Dardaman, Jonas Schuett, K. Wei, Christoph Winter, Mackenzie Arnold, Seán Ó hÉigeartaigh, Anton Korinek, Markus Anderljung, Ben Bucknall, Alan Chan, Eoghan Stafford, Leonie Koessler, Aviv Ovadya, Ben Garfinkel, Emma Bluemke, Michael Aird, Patrick Levermore, Julian Hazell, Abhishek Gupta
cs.AI
Resumen
Las recientes decisiones de los principales laboratorios de IA de abrir el código de sus modelos o de restringir el acceso a los mismos han generado un debate sobre si, y cómo, deberían compartirse los modelos de IA cada vez más capaces. En el ámbito de la IA, abrir el código generalmente se refiere a hacer que la arquitectura del modelo y sus pesos sean accesibles de manera gratuita y pública para que cualquiera pueda modificarlos, estudiarlos, construir sobre ellos y utilizarlos. Esto ofrece ventajas como permitir la supervisión externa, acelerar el progreso y descentralizar el control sobre el desarrollo y uso de la IA. Sin embargo, también presenta un potencial creciente de mal uso y consecuencias no deseadas. Este artículo ofrece un análisis de los riesgos y beneficios de abrir el código de modelos base altamente capaces. Si bien abrir el código históricamente ha proporcionado beneficios netos sustanciales para la mayoría de los procesos de desarrollo de software y IA, argumentamos que, para algunos modelos base altamente capaces que probablemente se desarrollen en un futuro cercano, abrir el código podría plantear riesgos lo suficientemente extremos como para superar los beneficios. En tal caso, los modelos base altamente capaces no deberían abrirse, al menos no inicialmente. Se exploran estrategias alternativas, incluidas opciones de compartir modelos sin abrir el código. El artículo concluye con recomendaciones para desarrolladores, organismos de normalización y gobiernos para establecer prácticas seguras y responsables de compartir modelos, y preservar los beneficios del código abierto cuando sea seguro.
English
Recent decisions by leading AI labs to either open-source their models or to
restrict access to their models has sparked debate about whether, and how,
increasingly capable AI models should be shared. Open-sourcing in AI typically
refers to making model architecture and weights freely and publicly accessible
for anyone to modify, study, build on, and use. This offers advantages such as
enabling external oversight, accelerating progress, and decentralizing control
over AI development and use. However, it also presents a growing potential for
misuse and unintended consequences. This paper offers an examination of the
risks and benefits of open-sourcing highly capable foundation models. While
open-sourcing has historically provided substantial net benefits for most
software and AI development processes, we argue that for some highly capable
foundation models likely to be developed in the near future, open-sourcing may
pose sufficiently extreme risks to outweigh the benefits. In such a case,
highly capable foundation models should not be open-sourced, at least not
initially. Alternative strategies, including non-open-source model sharing
options, are explored. The paper concludes with recommendations for developers,
standard-setting bodies, and governments for establishing safe and responsible
model sharing practices and preserving open-source benefits where safe.