Regulação de IA de Fronteira: Gerenciando Riscos Emergentes à Segurança Pública
Frontier AI Regulation: Managing Emerging Risks to Public Safety
July 6, 2023
Autores: Markus Anderljung, Joslyn Barnhart, Jade Leung, Anton Korinek, Cullen O'Keefe, Jess Whittlestone, Shahar Avin, Miles Brundage, Justin Bullock, Duncan Cass-Beggs, Ben Chang, Tantum Collins, Tim Fist, Gillian Hadfield, Alan Hayes, Lewis Ho, Sara Hooker, Eric Horvitz, Noam Kolt, Jonas Schuett, Yonadav Shavit, Divya Siddarth, Robert Trager, Kevin Wolf
cs.AI
Resumo
Modelos avançados de IA prometem benefícios extraordinários para a humanidade, mas a sociedade precisa gerenciar proativamente os riscos associados. Neste artigo, focamos no que chamamos de modelos de "IA de fronteira": modelos base altamente capazes que podem possuir habilidades perigosas suficientes para representar riscos graves à segurança pública. Os modelos de IA de fronteira apresentam um desafio regulatório distinto: habilidades perigosas podem surgir de forma inesperada; é difícil prevenir de forma robusta o uso indevido de um modelo implantado; e é difícil impedir que as capacidades de um modelo se proliferem amplamente. Para enfrentar esses desafios, são necessários pelo menos três pilares para a regulamentação de modelos de fronteira: (1) processos de estabelecimento de padrões para identificar requisitos apropriados para desenvolvedores de IA de fronteira, (2) requisitos de registro e relatórios para fornecer visibilidade aos reguladores sobre os processos de desenvolvimento de IA de fronteira, e (3) mecanismos para garantir o cumprimento de padrões de segurança no desenvolvimento e implantação de modelos de IA de fronteira. A autorregulação da indústria é um primeiro passo importante. No entanto, discussões sociais mais amplas e intervenção governamental serão necessárias para criar padrões e garantir seu cumprimento. Consideramos várias opções para esse fim, incluindo a concessão de poderes de fiscalização a autoridades supervisoras e regimes de licenciamento para modelos de IA de fronteira. Por fim, propomos um conjunto inicial de padrões de segurança. Estes incluem a realização de avaliações de risco antes da implantação; escrutínio externo do comportamento do modelo; uso de avaliações de risco para informar decisões de implantação; e monitoramento e resposta a novas informações sobre as capacidades e usos do modelo após a implantação. Esperamos que esta discussão contribua para o diálogo mais amplo sobre como equilibrar os riscos à segurança pública e os benefícios da inovação provenientes dos avanços na fronteira do desenvolvimento de IA.
English
Advanced AI models hold the promise of tremendous benefits for humanity, but
society needs to proactively manage the accompanying risks. In this paper, we
focus on what we term "frontier AI" models: highly capable foundation models
that could possess dangerous capabilities sufficient to pose severe risks to
public safety. Frontier AI models pose a distinct regulatory challenge:
dangerous capabilities can arise unexpectedly; it is difficult to robustly
prevent a deployed model from being misused; and, it is difficult to stop a
model's capabilities from proliferating broadly. To address these challenges,
at least three building blocks for the regulation of frontier models are
needed: (1) standard-setting processes to identify appropriate requirements for
frontier AI developers, (2) registration and reporting requirements to provide
regulators with visibility into frontier AI development processes, and (3)
mechanisms to ensure compliance with safety standards for the development and
deployment of frontier AI models. Industry self-regulation is an important
first step. However, wider societal discussions and government intervention
will be needed to create standards and to ensure compliance with them. We
consider several options to this end, including granting enforcement powers to
supervisory authorities and licensure regimes for frontier AI models. Finally,
we propose an initial set of safety standards. These include conducting
pre-deployment risk assessments; external scrutiny of model behavior; using
risk assessments to inform deployment decisions; and monitoring and responding
to new information about model capabilities and uses post-deployment. We hope
this discussion contributes to the broader conversation on how to balance
public safety risks and innovation benefits from advances at the frontier of AI
development.