ChatPaper.aiChatPaper

Регулирование передовых ИИ: управление возникающими рисками для общественной безопасности

Frontier AI Regulation: Managing Emerging Risks to Public Safety

July 6, 2023
Авторы: Markus Anderljung, Joslyn Barnhart, Jade Leung, Anton Korinek, Cullen O'Keefe, Jess Whittlestone, Shahar Avin, Miles Brundage, Justin Bullock, Duncan Cass-Beggs, Ben Chang, Tantum Collins, Tim Fist, Gillian Hadfield, Alan Hayes, Lewis Ho, Sara Hooker, Eric Horvitz, Noam Kolt, Jonas Schuett, Yonadav Shavit, Divya Siddarth, Robert Trager, Kevin Wolf
cs.AI

Аннотация

Передовые модели ИИ обещают огромные выгоды для человечества, но обществу необходимо активно управлять сопутствующими рисками. В данной статье мы сосредотачиваемся на том, что называем "фронтирными моделями ИИ": высокопроизводительными базовыми моделями, которые могут обладать опасными возможностями, способными представлять серьезные угрозы для общественной безопасности. Фронтирные модели ИИ представляют собой особую регуляторную проблему: опасные возможности могут возникать неожиданно; сложно надежно предотвратить неправомерное использование развернутой модели; и трудно остановить широкое распространение возможностей модели. Для решения этих проблем необходимы как минимум три ключевых элемента регулирования фронтирных моделей: (1) процессы установления стандартов для определения соответствующих требований к разработчикам фронтирных моделей ИИ, (2) требования к регистрации и отчетности, чтобы предоставить регуляторам прозрачность в процессах разработки фронтирных моделей ИИ, и (3) механизмы обеспечения соблюдения стандартов безопасности при разработке и развертывании фронтирных моделей ИИ. Саморегулирование отрасли является важным первым шагом. Однако для создания стандартов и обеспечения их соблюдения потребуются более широкие общественные обсуждения и вмешательство государства. Мы рассматриваем несколько вариантов для достижения этой цели, включая предоставление надзорным органам полномочий по обеспечению соблюдения и введение лицензионных режимов для фронтирных моделей ИИ. Наконец, мы предлагаем начальный набор стандартов безопасности. Они включают проведение оценки рисков перед развертыванием; внешнюю проверку поведения модели; использование оценки рисков для принятия решений о развертывании; а также мониторинг и реагирование на новую информацию о возможностях и использовании модели после развертывания. Мы надеемся, что это обсуждение внесет вклад в более широкую дискуссию о том, как сбалансировать риски для общественной безопасности и преимущества инноваций, связанные с достижениями на переднем крае разработки ИИ.
English
Advanced AI models hold the promise of tremendous benefits for humanity, but society needs to proactively manage the accompanying risks. In this paper, we focus on what we term "frontier AI" models: highly capable foundation models that could possess dangerous capabilities sufficient to pose severe risks to public safety. Frontier AI models pose a distinct regulatory challenge: dangerous capabilities can arise unexpectedly; it is difficult to robustly prevent a deployed model from being misused; and, it is difficult to stop a model's capabilities from proliferating broadly. To address these challenges, at least three building blocks for the regulation of frontier models are needed: (1) standard-setting processes to identify appropriate requirements for frontier AI developers, (2) registration and reporting requirements to provide regulators with visibility into frontier AI development processes, and (3) mechanisms to ensure compliance with safety standards for the development and deployment of frontier AI models. Industry self-regulation is an important first step. However, wider societal discussions and government intervention will be needed to create standards and to ensure compliance with them. We consider several options to this end, including granting enforcement powers to supervisory authorities and licensure regimes for frontier AI models. Finally, we propose an initial set of safety standards. These include conducting pre-deployment risk assessments; external scrutiny of model behavior; using risk assessments to inform deployment decisions; and monitoring and responding to new information about model capabilities and uses post-deployment. We hope this discussion contributes to the broader conversation on how to balance public safety risks and innovation benefits from advances at the frontier of AI development.
PDF50December 15, 2024