ChatPaper.aiChatPaper

Regolamentazione dell'IA di Frontiera: Gestione dei Rischi Emergenti per la Sicurezza Pubblica

Frontier AI Regulation: Managing Emerging Risks to Public Safety

July 6, 2023
Autori: Markus Anderljung, Joslyn Barnhart, Jade Leung, Anton Korinek, Cullen O'Keefe, Jess Whittlestone, Shahar Avin, Miles Brundage, Justin Bullock, Duncan Cass-Beggs, Ben Chang, Tantum Collins, Tim Fist, Gillian Hadfield, Alan Hayes, Lewis Ho, Sara Hooker, Eric Horvitz, Noam Kolt, Jonas Schuett, Yonadav Shavit, Divya Siddarth, Robert Trager, Kevin Wolf
cs.AI

Abstract

I modelli di IA avanzata promettono enormi benefici per l'umanità, ma la società deve gestire proattivamente i rischi associati. In questo articolo, ci concentriamo su ciò che definiamo modelli di "frontiera dell'IA": modelli di base altamente capaci che potrebbero possedere abilità pericolose sufficienti a rappresentare gravi rischi per la sicurezza pubblica. I modelli di frontiera dell'IA pongono una sfida normativa distinta: le capacità pericolose possono emergere inaspettatamente; è difficile prevenire in modo robusto l'uso improprio di un modello già distribuito; ed è difficile impedire la proliferazione su larga scala delle capacità di un modello. Per affrontare queste sfide, sono necessari almeno tre elementi fondamentali per la regolamentazione dei modelli di frontiera: (1) processi di definizione degli standard per identificare i requisiti appropriati per gli sviluppatori di IA di frontiera, (2) requisiti di registrazione e reporting per fornire ai regolatori visibilità sui processi di sviluppo dell'IA di frontiera, e (3) meccanismi per garantire il rispetto degli standard di sicurezza per lo sviluppo e la distribuzione dei modelli di frontiera dell'IA. L'autoregolamentazione del settore è un primo passo importante. Tuttavia, saranno necessarie discussioni sociali più ampie e interventi governativi per creare standard e garantirne il rispetto. Consideriamo diverse opzioni a tal fine, tra cui l'attribuzione di poteri di enforcement alle autorità di supervisione e regimi di licenza per i modelli di frontiera dell'IA. Infine, proponiamo un insieme iniziale di standard di sicurezza. Questi includono la conduzione di valutazioni del rischio pre-distribuzione; il controllo esterno del comportamento del modello; l'uso delle valutazioni del rischio per informare le decisioni di distribuzione; e il monitoraggio e la risposta alle nuove informazioni sulle capacità e gli usi del modello post-distribuzione. Speriamo che questa discussione contribuisca al più ampio dibattito su come bilanciare i rischi per la sicurezza pubblica e i benefici dell'innovazione derivanti dai progressi alla frontiera dello sviluppo dell'IA.
English
Advanced AI models hold the promise of tremendous benefits for humanity, but society needs to proactively manage the accompanying risks. In this paper, we focus on what we term "frontier AI" models: highly capable foundation models that could possess dangerous capabilities sufficient to pose severe risks to public safety. Frontier AI models pose a distinct regulatory challenge: dangerous capabilities can arise unexpectedly; it is difficult to robustly prevent a deployed model from being misused; and, it is difficult to stop a model's capabilities from proliferating broadly. To address these challenges, at least three building blocks for the regulation of frontier models are needed: (1) standard-setting processes to identify appropriate requirements for frontier AI developers, (2) registration and reporting requirements to provide regulators with visibility into frontier AI development processes, and (3) mechanisms to ensure compliance with safety standards for the development and deployment of frontier AI models. Industry self-regulation is an important first step. However, wider societal discussions and government intervention will be needed to create standards and to ensure compliance with them. We consider several options to this end, including granting enforcement powers to supervisory authorities and licensure regimes for frontier AI models. Finally, we propose an initial set of safety standards. These include conducting pre-deployment risk assessments; external scrutiny of model behavior; using risk assessments to inform deployment decisions; and monitoring and responding to new information about model capabilities and uses post-deployment. We hope this discussion contributes to the broader conversation on how to balance public safety risks and innovation benefits from advances at the frontier of AI development.
PDF50February 8, 2026