Hacia las mejores prácticas en seguridad y gobernanza de la AGI: una encuesta de opinión experta
Towards best practices in AGI safety and governance: A survey of expert opinion
May 11, 2023
Autores: Jonas Schuett, Noemi Dreksler, Markus Anderljung, David McCaffary, Lennart Heim, Emma Bluemke, Ben Garfinkel
cs.AI
Resumen
Varias empresas líderes en IA, incluyendo OpenAI, Google DeepMind y Anthropic, tienen como objetivo declarado construir inteligencia artificial general (IAG) —sistemas de IA que alcanzan o superan el desempeño humano en una amplia gama de tareas cognitivas. Al perseguir este objetivo, podrían desarrollar e implementar sistemas de IA que planteen riesgos particularmente significativos. Aunque ya han tomado algunas medidas para mitigar estos riesgos, aún no han surgido las mejores prácticas. Para apoyar la identificación de dichas prácticas, enviamos una encuesta a 92 expertos destacados de laboratorios de IAG, academia y sociedad civil, y recibimos 51 respuestas. Se les preguntó a los participantes en qué medida estaban de acuerdo con 50 declaraciones sobre lo que los laboratorios de IAG deberían hacer. Nuestro hallazgo principal es que, en promedio, los participantes estuvieron de acuerdo con todas ellas. Muchas declaraciones recibieron niveles de acuerdo extremadamente altos. Por ejemplo, el 98% de los encuestados estuvo algo o totalmente de acuerdo en que los laboratorios de IAG deberían realizar evaluaciones de riesgos previas al despliegue, evaluaciones de capacidades peligrosas, auditorías de modelos por terceros, restricciones de seguridad en el uso de modelos y pruebas de red teaming. En última instancia, nuestra lista de declaraciones puede servir como una base útil para los esfuerzos de desarrollo de mejores prácticas, estándares y regulaciones para los laboratorios de IAG.
English
A number of leading AI companies, including OpenAI, Google DeepMind, and
Anthropic, have the stated goal of building artificial general intelligence
(AGI) - AI systems that achieve or exceed human performance across a wide range
of cognitive tasks. In pursuing this goal, they may develop and deploy AI
systems that pose particularly significant risks. While they have already taken
some measures to mitigate these risks, best practices have not yet emerged. To
support the identification of best practices, we sent a survey to 92 leading
experts from AGI labs, academia, and civil society and received 51 responses.
Participants were asked how much they agreed with 50 statements about what AGI
labs should do. Our main finding is that participants, on average, agreed with
all of them. Many statements received extremely high levels of agreement. For
example, 98% of respondents somewhat or strongly agreed that AGI labs should
conduct pre-deployment risk assessments, dangerous capabilities evaluations,
third-party model audits, safety restrictions on model usage, and red teaming.
Ultimately, our list of statements may serve as a helpful foundation for
efforts to develop best practices, standards, and regulations for AGI labs.