프론티어 AI 규제: 공공 안전에 대한 신흥 위험 관리
Frontier AI Regulation: Managing Emerging Risks to Public Safety
July 6, 2023
저자: Markus Anderljung, Joslyn Barnhart, Jade Leung, Anton Korinek, Cullen O'Keefe, Jess Whittlestone, Shahar Avin, Miles Brundage, Justin Bullock, Duncan Cass-Beggs, Ben Chang, Tantum Collins, Tim Fist, Gillian Hadfield, Alan Hayes, Lewis Ho, Sara Hooker, Eric Horvitz, Noam Kolt, Jonas Schuett, Yonadav Shavit, Divya Siddarth, Robert Trager, Kevin Wolf
cs.AI
초록
고급 AI 모델은 인류에게 엄청난 혜택을 제공할 가능성을 지니고 있지만, 사회는 이에 수반되는 위험을 적극적으로 관리할 필요가 있습니다. 본 논문에서는 우리가 "프론티어 AI" 모델이라고 부르는, 공공 안전에 심각한 위험을 초래할 수 있는 위험한 능력을 가질 가능성이 있는 매우 강력한 기초 모델에 초점을 맞춥니다. 프론티어 AI 모델은 독특한 규제적 도전 과제를 제시합니다: 위험한 능력이 예기치 않게 발생할 수 있으며, 배포된 모델의 오용을 견고하게 방지하기 어렵고, 모델의 능력이 광범위하게 확산되는 것을 막기 어렵습니다. 이러한 도전 과제를 해결하기 위해, 최소한 세 가지 프론티어 모델 규제의 기본 요소가 필요합니다: (1) 프론티어 AI 개발자에게 적절한 요구 사항을 식별하기 위한 표준 설정 프로세스, (2) 프론티어 AI 개발 프로세스에 대한 규제 당국의 가시성을 제공하기 위한 등록 및 보고 요구 사항, (3) 프론티어 AI 모델의 개발 및 배포에 대한 안전 표준 준수를 보장하기 위한 메커니즘. 산업계의 자율 규제는 중요한 첫걸음입니다. 그러나 보다 넓은 사회적 논의와 정부의 개입이 표준을 만들고 이를 준수하도록 보장하기 위해 필요할 것입니다. 이를 위해 감독 당국에 강제 집행 권한을 부여하거나 프론티어 AI 모델에 대한 라이선스 제도를 도입하는 등 여러 옵션을 고려합니다. 마지막으로, 우리는 초기 안전 표준 세트를 제안합니다. 이에는 배포 전 위험 평가 수행, 모델 행동에 대한 외부 검토, 위험 평가를 통해 배포 결정에 정보를 제공, 배포 후 모델 능력 및 사용에 대한 새로운 정보를 모니터링하고 대응하는 것이 포함됩니다. 이 논의가 AI 개발의 최전선에서의 혁신적 혜택과 공공 안전 위험 사이의 균형을 어떻게 맞출 것인가에 대한 더 넓은 대화에 기여하기를 바랍니다.
English
Advanced AI models hold the promise of tremendous benefits for humanity, but
society needs to proactively manage the accompanying risks. In this paper, we
focus on what we term "frontier AI" models: highly capable foundation models
that could possess dangerous capabilities sufficient to pose severe risks to
public safety. Frontier AI models pose a distinct regulatory challenge:
dangerous capabilities can arise unexpectedly; it is difficult to robustly
prevent a deployed model from being misused; and, it is difficult to stop a
model's capabilities from proliferating broadly. To address these challenges,
at least three building blocks for the regulation of frontier models are
needed: (1) standard-setting processes to identify appropriate requirements for
frontier AI developers, (2) registration and reporting requirements to provide
regulators with visibility into frontier AI development processes, and (3)
mechanisms to ensure compliance with safety standards for the development and
deployment of frontier AI models. Industry self-regulation is an important
first step. However, wider societal discussions and government intervention
will be needed to create standards and to ensure compliance with them. We
consider several options to this end, including granting enforcement powers to
supervisory authorities and licensure regimes for frontier AI models. Finally,
we propose an initial set of safety standards. These include conducting
pre-deployment risk assessments; external scrutiny of model behavior; using
risk assessments to inform deployment decisions; and monitoring and responding
to new information about model capabilities and uses post-deployment. We hope
this discussion contributes to the broader conversation on how to balance
public safety risks and innovation benefits from advances at the frontier of AI
development.