Regulering van Frontier AI: Het Beheersen van Opkomende Risico's voor Openbare Veiligheid
Frontier AI Regulation: Managing Emerging Risks to Public Safety
July 6, 2023
Auteurs: Markus Anderljung, Joslyn Barnhart, Jade Leung, Anton Korinek, Cullen O'Keefe, Jess Whittlestone, Shahar Avin, Miles Brundage, Justin Bullock, Duncan Cass-Beggs, Ben Chang, Tantum Collins, Tim Fist, Gillian Hadfield, Alan Hayes, Lewis Ho, Sara Hooker, Eric Horvitz, Noam Kolt, Jonas Schuett, Yonadav Shavit, Divya Siddarth, Robert Trager, Kevin Wolf
cs.AI
Samenvatting
Geavanceerde AI-modellen beloven enorme voordelen voor de mensheid, maar de samenleving moet de bijbehorende risico's proactief beheren. In dit artikel richten we ons op wat we "frontier AI"-modellen noemen: zeer krachtige basis-modellen die gevaarlijke capaciteiten kunnen bezitten die ernstige risico's voor de openbare veiligheid kunnen vormen. Frontier AI-modellen vormen een unieke regelgevingsuitdaging: gevaarlijke capaciteiten kunnen onverwacht ontstaan; het is moeilijk om robuust te voorkomen dat een ingezet model wordt misbruikt; en het is moeilijk om te voorkomen dat de capaciteiten van een model zich breed verspreiden. Om deze uitdagingen aan te pakken, zijn ten minste drie bouwstenen nodig voor de regulering van frontier-modellen: (1) standaardiseringsprocessen om passende vereisten voor frontier AI-ontwikkelaars te identificeren, (2) registratie- en rapportagevereisten om toezichthouders inzicht te geven in de ontwikkelingsprocessen van frontier AI, en (3) mechanismen om naleving van veiligheidsnormen voor de ontwikkeling en implementatie van frontier AI-modellen te waarborgen. Zelfregulering door de industrie is een belangrijke eerste stap. Echter, bredere maatschappelijke discussies en overheidsinterventie zullen nodig zijn om normen te creëren en naleving ervan te waarborgen. We overwegen verschillende opties hiervoor, waaronder het verlenen van handhavingsbevoegdheden aan toezichthoudende autoriteiten en licentie-regimes voor frontier AI-modellen. Tot slot stellen we een eerste set veiligheidsnormen voor. Deze omvatten het uitvoeren van risicobeoordelingen vóór implementatie; externe controle van modelgedrag; het gebruik van risicobeoordelingen om implementatiebeslissingen te informeren; en het monitoren en reageren op nieuwe informatie over modelcapaciteiten en gebruik na implementatie. We hopen dat deze discussie bijdraagt aan het bredere gesprek over hoe de risico's voor de openbare veiligheid en de innovatievoordelen van vooruitgang aan de frontier van AI-ontwikkeling in balans kunnen worden gebracht.
English
Advanced AI models hold the promise of tremendous benefits for humanity, but
society needs to proactively manage the accompanying risks. In this paper, we
focus on what we term "frontier AI" models: highly capable foundation models
that could possess dangerous capabilities sufficient to pose severe risks to
public safety. Frontier AI models pose a distinct regulatory challenge:
dangerous capabilities can arise unexpectedly; it is difficult to robustly
prevent a deployed model from being misused; and, it is difficult to stop a
model's capabilities from proliferating broadly. To address these challenges,
at least three building blocks for the regulation of frontier models are
needed: (1) standard-setting processes to identify appropriate requirements for
frontier AI developers, (2) registration and reporting requirements to provide
regulators with visibility into frontier AI development processes, and (3)
mechanisms to ensure compliance with safety standards for the development and
deployment of frontier AI models. Industry self-regulation is an important
first step. However, wider societal discussions and government intervention
will be needed to create standards and to ensure compliance with them. We
consider several options to this end, including granting enforcement powers to
supervisory authorities and licensure regimes for frontier AI models. Finally,
we propose an initial set of safety standards. These include conducting
pre-deployment risk assessments; external scrutiny of model behavior; using
risk assessments to inform deployment decisions; and monitoring and responding
to new information about model capabilities and uses post-deployment. We hope
this discussion contributes to the broader conversation on how to balance
public safety risks and innovation benefits from advances at the frontier of AI
development.