Regulación de la IA de Vanguardia: Gestión de Riesgos Emergentes para la Seguridad Pública
Frontier AI Regulation: Managing Emerging Risks to Public Safety
July 6, 2023
Autores: Markus Anderljung, Joslyn Barnhart, Jade Leung, Anton Korinek, Cullen O'Keefe, Jess Whittlestone, Shahar Avin, Miles Brundage, Justin Bullock, Duncan Cass-Beggs, Ben Chang, Tantum Collins, Tim Fist, Gillian Hadfield, Alan Hayes, Lewis Ho, Sara Hooker, Eric Horvitz, Noam Kolt, Jonas Schuett, Yonadav Shavit, Divya Siddarth, Robert Trager, Kevin Wolf
cs.AI
Resumen
Los modelos avanzados de IA prometen enormes beneficios para la humanidad, pero la sociedad necesita gestionar proactivamente los riesgos asociados. En este artículo, nos centramos en lo que denominamos modelos de "IA frontera": modelos base altamente capaces que podrían poseer capacidades peligrosas suficientes para representar riesgos graves para la seguridad pública. Los modelos de IA frontera plantean un desafío regulatorio distintivo: las capacidades peligrosas pueden surgir de manera inesperada; es difícil prevenir de manera robusta que un modelo implementado sea mal utilizado; y es difícil evitar que las capacidades de un modelo se proliferen ampliamente. Para abordar estos desafíos, se necesitan al menos tres pilares fundamentales para la regulación de los modelos frontera: (1) procesos de establecimiento de estándares para identificar los requisitos apropiados para los desarrolladores de IA frontera, (2) requisitos de registro y reporte para proporcionar a los reguladores visibilidad sobre los procesos de desarrollo de IA frontera, y (3) mecanismos para garantizar el cumplimiento de los estándares de seguridad en el desarrollo e implementación de modelos de IA frontera. La autorregulación de la industria es un primer paso importante. Sin embargo, se necesitarán discusiones sociales más amplias e intervención gubernamental para crear estándares y asegurar su cumplimiento. Consideramos varias opciones para este fin, incluyendo otorgar poderes de ejecución a autoridades supervisoras y regímenes de licenciamiento para modelos de IA frontera. Finalmente, proponemos un conjunto inicial de estándares de seguridad. Estos incluyen realizar evaluaciones de riesgo previas a la implementación; escrutinio externo del comportamiento del modelo; utilizar evaluaciones de riesgo para informar decisiones de implementación; y monitorear y responder a nueva información sobre las capacidades y usos del modelo después de su implementación. Esperamos que esta discusión contribuya a la conversación más amplia sobre cómo equilibrar los riesgos para la seguridad pública y los beneficios de la innovación derivados de los avances en el desarrollo de la IA frontera.
English
Advanced AI models hold the promise of tremendous benefits for humanity, but
society needs to proactively manage the accompanying risks. In this paper, we
focus on what we term "frontier AI" models: highly capable foundation models
that could possess dangerous capabilities sufficient to pose severe risks to
public safety. Frontier AI models pose a distinct regulatory challenge:
dangerous capabilities can arise unexpectedly; it is difficult to robustly
prevent a deployed model from being misused; and, it is difficult to stop a
model's capabilities from proliferating broadly. To address these challenges,
at least three building blocks for the regulation of frontier models are
needed: (1) standard-setting processes to identify appropriate requirements for
frontier AI developers, (2) registration and reporting requirements to provide
regulators with visibility into frontier AI development processes, and (3)
mechanisms to ensure compliance with safety standards for the development and
deployment of frontier AI models. Industry self-regulation is an important
first step. However, wider societal discussions and government intervention
will be needed to create standards and to ensure compliance with them. We
consider several options to this end, including granting enforcement powers to
supervisory authorities and licensure regimes for frontier AI models. Finally,
we propose an initial set of safety standards. These include conducting
pre-deployment risk assessments; external scrutiny of model behavior; using
risk assessments to inform deployment decisions; and monitoring and responding
to new information about model capabilities and uses post-deployment. We hope
this discussion contributes to the broader conversation on how to balance
public safety risks and innovation benefits from advances at the frontier of AI
development.