ChatPaper.aiChatPaper

Hin zu Best Practices in AGI-Sicherheit und Governance: Eine Umfrage unter Expertenmeinungen

Towards best practices in AGI safety and governance: A survey of expert opinion

May 11, 2023
Autoren: Jonas Schuett, Noemi Dreksler, Markus Anderljung, David McCaffary, Lennart Heim, Emma Bluemke, Ben Garfinkel
cs.AI

Zusammenfassung

Eine Reihe führender KI-Unternehmen, darunter OpenAI, Google DeepMind und Anthropic, haben das erklärte Ziel, künstliche allgemeine Intelligenz (AGI) zu entwickeln – KI-Systeme, die menschliche Leistungen in einer Vielzahl kognitiver Aufgaben erreichen oder übertreffen. Bei der Verfolgung dieses Ziels könnten sie KI-Systeme entwickeln und einsetzen, die besonders bedeutende Risiken bergen. Obwohl bereits einige Maßnahmen zur Risikominderung ergriffen wurden, haben sich noch keine Best Practices etabliert. Um die Identifizierung von Best Practices zu unterstützen, haben wir eine Umfrage an 92 führende Experten aus AGI-Laboren, der Wissenschaft und der Zivilgesellschaft verschickt und 51 Antworten erhalten. Die Teilnehmer wurden gefragt, inwieweit sie 50 Aussagen darüber zustimmten, was AGI-Labore tun sollten. Unser Hauptergebnis ist, dass die Teilnehmer im Durchschnitt allen Aussagen zustimmten. Viele Aussagen erhielten ein extrem hohes Maß an Zustimmung. Beispielsweise stimmten 98 % der Befragten teilweise oder vollständig zu, dass AGI-Labore Risikobewertungen vor der Bereitstellung, Bewertungen gefährlicher Fähigkeiten, Audits durch Dritte, Sicherheitsbeschränkungen für die Modellnutzung und Red Teaming durchführen sollten. Letztendlich könnte unsere Liste von Aussagen als hilfreiche Grundlage für die Entwicklung von Best Practices, Standards und Regulierungen für AGI-Labore dienen.
English
A number of leading AI companies, including OpenAI, Google DeepMind, and Anthropic, have the stated goal of building artificial general intelligence (AGI) - AI systems that achieve or exceed human performance across a wide range of cognitive tasks. In pursuing this goal, they may develop and deploy AI systems that pose particularly significant risks. While they have already taken some measures to mitigate these risks, best practices have not yet emerged. To support the identification of best practices, we sent a survey to 92 leading experts from AGI labs, academia, and civil society and received 51 responses. Participants were asked how much they agreed with 50 statements about what AGI labs should do. Our main finding is that participants, on average, agreed with all of them. Many statements received extremely high levels of agreement. For example, 98% of respondents somewhat or strongly agreed that AGI labs should conduct pre-deployment risk assessments, dangerous capabilities evaluations, third-party model audits, safety restrictions on model usage, and red teaming. Ultimately, our list of statements may serve as a helpful foundation for efforts to develop best practices, standards, and regulations for AGI labs.
PDF00December 15, 2024