ChatPaper.aiChatPaper

Em direção às melhores práticas em segurança e governança de AGI: Uma pesquisa de opinião de especialistas

Towards best practices in AGI safety and governance: A survey of expert opinion

May 11, 2023
Autores: Jonas Schuett, Noemi Dreksler, Markus Anderljung, David McCaffary, Lennart Heim, Emma Bluemke, Ben Garfinkel
cs.AI

Resumo

Várias empresas líderes em IA, incluindo OpenAI, Google DeepMind e Anthropic, têm como objetivo declarado construir inteligência artificial geral (IAG) - sistemas de IA que alcançam ou superam o desempenho humano em uma ampla gama de tarefas cognitivas. Ao perseguir esse objetivo, elas podem desenvolver e implantar sistemas de IA que apresentam riscos particularmente significativos. Embora já tenham tomado algumas medidas para mitigar esses riscos, as melhores práticas ainda não foram estabelecidas. Para apoiar a identificação dessas melhores práticas, enviamos uma pesquisa para 92 especialistas líderes de laboratórios de IAG, academia e sociedade civil e recebemos 51 respostas. Os participantes foram questionados sobre o quanto concordavam com 50 declarações sobre o que os laboratórios de IAG deveriam fazer. Nossa principal descoberta é que os participantes, em média, concordaram com todas elas. Muitas declarações receberam níveis extremamente altos de concordância. Por exemplo, 98% dos entrevistados concordaram parcial ou totalmente que os laboratórios de IAG devem realizar avaliações de risco antes da implantação, avaliações de capacidades perigosas, auditorias de modelos por terceiros, restrições de segurança no uso de modelos e testes de red teaming. Por fim, nossa lista de declarações pode servir como uma base útil para esforços de desenvolvimento de melhores práticas, padrões e regulamentações para laboratórios de IAG.
English
A number of leading AI companies, including OpenAI, Google DeepMind, and Anthropic, have the stated goal of building artificial general intelligence (AGI) - AI systems that achieve or exceed human performance across a wide range of cognitive tasks. In pursuing this goal, they may develop and deploy AI systems that pose particularly significant risks. While they have already taken some measures to mitigate these risks, best practices have not yet emerged. To support the identification of best practices, we sent a survey to 92 leading experts from AGI labs, academia, and civil society and received 51 responses. Participants were asked how much they agreed with 50 statements about what AGI labs should do. Our main finding is that participants, on average, agreed with all of them. Many statements received extremely high levels of agreement. For example, 98% of respondents somewhat or strongly agreed that AGI labs should conduct pre-deployment risk assessments, dangerous capabilities evaluations, third-party model audits, safety restrictions on model usage, and red teaming. Ultimately, our list of statements may serve as a helpful foundation for efforts to develop best practices, standards, and regulations for AGI labs.
PDF00December 15, 2024