ChatPaper.aiChatPaper

フロンティアAI規制:公共の安全に対する新たなリスクの管理

Frontier AI Regulation: Managing Emerging Risks to Public Safety

July 6, 2023
著者: Markus Anderljung, Joslyn Barnhart, Jade Leung, Anton Korinek, Cullen O'Keefe, Jess Whittlestone, Shahar Avin, Miles Brundage, Justin Bullock, Duncan Cass-Beggs, Ben Chang, Tantum Collins, Tim Fist, Gillian Hadfield, Alan Hayes, Lewis Ho, Sara Hooker, Eric Horvitz, Noam Kolt, Jonas Schuett, Yonadav Shavit, Divya Siddarth, Robert Trager, Kevin Wolf
cs.AI

要旨

先進的なAIモデルは人類にとって計り知れない恩恵をもたらす可能性を秘めているが、社会はそれに伴うリスクを積極的に管理する必要がある。本論文では、「フロンティアAI」モデルに焦点を当てる。これは、公衆の安全に深刻なリスクをもたらす可能性のある危険な能力を備えた、高度に汎用的な基盤モデルである。フロンティアAIモデルは独特の規制上の課題を提起する。危険な能力が予期せず出現する可能性があること、展開されたモデルの悪用を確実に防ぐことが困難であること、そしてモデルの能力が広く普及するのを阻止することが難しいことである。これらの課題に対処するためには、少なくとも3つの基本的な規制要素が必要である。(1)フロンティアAI開発者に適切な要件を定めるための標準設定プロセス、(2)規制当局がフロンティアAI開発プロセスを把握できるようにする登録および報告要件、(3)フロンティアAIモデルの開発と展開における安全基準の遵守を確保するメカニズムである。業界の自主規制は重要な第一歩である。しかし、より広範な社会的議論と政府の介入が、標準を作成し、それらの遵守を確保するために必要となる。この目的のために、監督当局に執行権限を付与することや、フロンティアAIモデルのライセンス制度など、いくつかの選択肢を検討する。最後に、初期の安全基準セットを提案する。これには、展開前のリスク評価の実施、モデル行動の外部監査、リスク評価に基づいた展開決定、展開後のモデル能力と使用に関する新たな情報の監視と対応が含まれる。本議論が、AI開発のフロンティアにおける公衆安全リスクとイノベーションの恩恵をいかにバランスさせるかという広範な議論に貢献することを願っている。
English
Advanced AI models hold the promise of tremendous benefits for humanity, but society needs to proactively manage the accompanying risks. In this paper, we focus on what we term "frontier AI" models: highly capable foundation models that could possess dangerous capabilities sufficient to pose severe risks to public safety. Frontier AI models pose a distinct regulatory challenge: dangerous capabilities can arise unexpectedly; it is difficult to robustly prevent a deployed model from being misused; and, it is difficult to stop a model's capabilities from proliferating broadly. To address these challenges, at least three building blocks for the regulation of frontier models are needed: (1) standard-setting processes to identify appropriate requirements for frontier AI developers, (2) registration and reporting requirements to provide regulators with visibility into frontier AI development processes, and (3) mechanisms to ensure compliance with safety standards for the development and deployment of frontier AI models. Industry self-regulation is an important first step. However, wider societal discussions and government intervention will be needed to create standards and to ensure compliance with them. We consider several options to this end, including granting enforcement powers to supervisory authorities and licensure regimes for frontier AI models. Finally, we propose an initial set of safety standards. These include conducting pre-deployment risk assessments; external scrutiny of model behavior; using risk assessments to inform deployment decisions; and monitoring and responding to new information about model capabilities and uses post-deployment. We hope this discussion contributes to the broader conversation on how to balance public safety risks and innovation benefits from advances at the frontier of AI development.
PDF50December 15, 2024