ChatPaper.aiChatPaper

Regulierung von Frontier-KI: Umgang mit neu entstehenden Risiken für die öffentliche Sicherheit

Frontier AI Regulation: Managing Emerging Risks to Public Safety

July 6, 2023
Autoren: Markus Anderljung, Joslyn Barnhart, Jade Leung, Anton Korinek, Cullen O'Keefe, Jess Whittlestone, Shahar Avin, Miles Brundage, Justin Bullock, Duncan Cass-Beggs, Ben Chang, Tantum Collins, Tim Fist, Gillian Hadfield, Alan Hayes, Lewis Ho, Sara Hooker, Eric Horvitz, Noam Kolt, Jonas Schuett, Yonadav Shavit, Divya Siddarth, Robert Trager, Kevin Wolf
cs.AI

Zusammenfassung

Fortschrittliche KI-Modelle bergen das Versprechen enormer Vorteile für die Menschheit, doch die Gesellschaft muss die damit verbundenen Risiken proaktiv managen. In diesem Artikel konzentrieren wir uns auf das, was wir als „Frontier AI“-Modelle bezeichnen: hochleistungsfähige Basismodelle, die gefährliche Fähigkeiten besitzen könnten, die ausreichen, um schwerwiegende Risiken für die öffentliche Sicherheit darzustellen. Frontier AI-Modelle stellen eine besondere regulatorische Herausforderung dar: gefährliche Fähigkeiten können unerwartet auftreten; es ist schwierig, den Missbrauch eines eingesetzten Modells robust zu verhindern; und es ist schwierig, die Verbreitung der Fähigkeiten eines Modells weitgehend zu stoppen. Um diese Herausforderungen zu bewältigen, werden mindestens drei Bausteine für die Regulierung von Frontier-Modellen benötigt: (1) Standardisierungsprozesse, um angemessene Anforderungen für Frontier AI-Entwickler zu identifizieren, (2) Registrierungs- und Berichtspflichten, um Regulierungsbehörden Einblicke in die Entwicklungsprozesse von Frontier AI zu ermöglichen, und (3) Mechanismen zur Sicherstellung der Einhaltung von Sicherheitsstandards für die Entwicklung und den Einsatz von Frontier AI-Modellen. Die Selbstregulierung der Industrie ist ein wichtiger erster Schritt. Allerdings werden breitere gesellschaftliche Diskussionen und staatliche Interventionen erforderlich sein, um Standards zu schaffen und deren Einhaltung sicherzustellen. Wir erwägen mehrere Optionen hierfür, einschließlich der Gewährung von Durchsetzungsbefugnissen an Aufsichtsbehörden und Lizenzierungsregime für Frontier AI-Modelle. Schließlich schlagen wir einen ersten Satz von Sicherheitsstandards vor. Dazu gehören die Durchführung von Risikobewertungen vor dem Einsatz; externe Überprüfung des Modellverhaltens; die Nutzung von Risikobewertungen zur Informationsgrundlage für Einsatzentscheidungen; sowie die Überwachung und Reaktion auf neue Informationen über Modellfähigkeiten und -nutzungen nach dem Einsatz. Wir hoffen, dass diese Diskussion einen Beitrag zur breiteren Debatte darüber leistet, wie die Risiken für die öffentliche Sicherheit und die Innovationsvorteile durch Fortschritte an der Grenze der KI-Entwicklung in Einklang gebracht werden können.
English
Advanced AI models hold the promise of tremendous benefits for humanity, but society needs to proactively manage the accompanying risks. In this paper, we focus on what we term "frontier AI" models: highly capable foundation models that could possess dangerous capabilities sufficient to pose severe risks to public safety. Frontier AI models pose a distinct regulatory challenge: dangerous capabilities can arise unexpectedly; it is difficult to robustly prevent a deployed model from being misused; and, it is difficult to stop a model's capabilities from proliferating broadly. To address these challenges, at least three building blocks for the regulation of frontier models are needed: (1) standard-setting processes to identify appropriate requirements for frontier AI developers, (2) registration and reporting requirements to provide regulators with visibility into frontier AI development processes, and (3) mechanisms to ensure compliance with safety standards for the development and deployment of frontier AI models. Industry self-regulation is an important first step. However, wider societal discussions and government intervention will be needed to create standards and to ensure compliance with them. We consider several options to this end, including granting enforcement powers to supervisory authorities and licensure regimes for frontier AI models. Finally, we propose an initial set of safety standards. These include conducting pre-deployment risk assessments; external scrutiny of model behavior; using risk assessments to inform deployment decisions; and monitoring and responding to new information about model capabilities and uses post-deployment. We hope this discussion contributes to the broader conversation on how to balance public safety risks and innovation benefits from advances at the frontier of AI development.
PDF50December 15, 2024