ChatPaper.aiChatPaper

Régulation de l'IA de pointe : Gestion des risques émergents pour la sécurité publique

Frontier AI Regulation: Managing Emerging Risks to Public Safety

July 6, 2023
Auteurs: Markus Anderljung, Joslyn Barnhart, Jade Leung, Anton Korinek, Cullen O'Keefe, Jess Whittlestone, Shahar Avin, Miles Brundage, Justin Bullock, Duncan Cass-Beggs, Ben Chang, Tantum Collins, Tim Fist, Gillian Hadfield, Alan Hayes, Lewis Ho, Sara Hooker, Eric Horvitz, Noam Kolt, Jonas Schuett, Yonadav Shavit, Divya Siddarth, Robert Trager, Kevin Wolf
cs.AI

Résumé

Les modèles d'IA avancés promettent des avantages considérables pour l'humanité, mais la société doit gérer de manière proactive les risques qui les accompagnent. Dans cet article, nous nous concentrons sur ce que nous appelons les modèles d'IA "frontière" : des modèles de base hautement performants qui pourraient posséder des capacités dangereuses suffisantes pour représenter des risques graves pour la sécurité publique. Les modèles d'IA frontière posent un défi réglementaire distinct : les capacités dangereuses peuvent émerger de manière inattendue ; il est difficile d'empêcher de manière robuste qu'un modèle déployé soit détourné ; et il est difficile d'empêcher la prolifération des capacités d'un modèle. Pour relever ces défis, au moins trois éléments de base sont nécessaires pour la régulation des modèles frontière : (1) des processus d'établissement de normes pour identifier les exigences appropriées pour les développeurs d'IA frontière, (2) des exigences d'enregistrement et de reporting pour fournir aux régulateurs une visibilité sur les processus de développement de l'IA frontière, et (3) des mécanismes pour assurer le respect des normes de sécurité pour le développement et le déploiement des modèles d'IA frontière. L'autorégulation de l'industrie est une première étape importante. Cependant, des discussions sociétales plus larges et une intervention gouvernementale seront nécessaires pour établir des normes et en assurer le respect. Nous examinons plusieurs options à cette fin, notamment l'octroi de pouvoirs d'exécution aux autorités de surveillance et des régimes de licence pour les modèles d'IA frontière. Enfin, nous proposons un ensemble initial de normes de sécurité. Celles-ci incluent la réalisation d'évaluations des risques avant le déploiement ; un examen externe du comportement du modèle ; l'utilisation des évaluations des risques pour éclairer les décisions de déploiement ; et la surveillance et la réponse aux nouvelles informations sur les capacités et les utilisations du modèle après le déploiement. Nous espérons que cette discussion contribue au débat plus large sur la manière d'équilibrer les risques pour la sécurité publique et les avantages de l'innovation issus des avancées à la frontière du développement de l'IA.
English
Advanced AI models hold the promise of tremendous benefits for humanity, but society needs to proactively manage the accompanying risks. In this paper, we focus on what we term "frontier AI" models: highly capable foundation models that could possess dangerous capabilities sufficient to pose severe risks to public safety. Frontier AI models pose a distinct regulatory challenge: dangerous capabilities can arise unexpectedly; it is difficult to robustly prevent a deployed model from being misused; and, it is difficult to stop a model's capabilities from proliferating broadly. To address these challenges, at least three building blocks for the regulation of frontier models are needed: (1) standard-setting processes to identify appropriate requirements for frontier AI developers, (2) registration and reporting requirements to provide regulators with visibility into frontier AI development processes, and (3) mechanisms to ensure compliance with safety standards for the development and deployment of frontier AI models. Industry self-regulation is an important first step. However, wider societal discussions and government intervention will be needed to create standards and to ensure compliance with them. We consider several options to this end, including granting enforcement powers to supervisory authorities and licensure regimes for frontier AI models. Finally, we propose an initial set of safety standards. These include conducting pre-deployment risk assessments; external scrutiny of model behavior; using risk assessments to inform deployment decisions; and monitoring and responding to new information about model capabilities and uses post-deployment. We hope this discussion contributes to the broader conversation on how to balance public safety risks and innovation benefits from advances at the frontier of AI development.
PDF50December 15, 2024