Построение доверия: основы безопасности, надежности и прозрачности в искусственном интеллекте
Building Trust: Foundations of Security, Safety and Transparency in AI
November 19, 2024
Авторы: Huzaifa Sidhpurwala, Garth Mollett, Emily Fox, Mark Bestavros, Huamin Chen
cs.AI
Аннотация
Данная статья исследует быстро развивающуюся экосистему общедоступных моделей искусственного интеллекта и их потенциальное влияние на область безопасности. Поскольку модели искусственного интеллекта становятся все более распространенными, важно понимать их потенциальные риски и уязвимости. Мы рассматриваем текущие сценарии безопасности и безопасности, выделяя проблемы, такие как проблемы отслеживания, устранение и явное отсутствие процессов жизненного цикла и владения моделями искусственного интеллекта. Предлагаются комплексные стратегии для улучшения безопасности как для разработчиков моделей, так и для конечных пользователей. Цель данной статьи - предоставить некоторые основные элементы для более стандартизированной безопасности, безопасности и прозрачности в разработке и эксплуатации моделей искусственного интеллекта, а также в более крупных открытых экосистемах и сообществах, формирующихся вокруг них.
English
This paper explores the rapidly evolving ecosystem of publicly available AI
models, and their potential implications on the security and safety landscape.
As AI models become increasingly prevalent, understanding their potential risks
and vulnerabilities is crucial. We review the current security and safety
scenarios while highlighting challenges such as tracking issues, remediation,
and the apparent absence of AI model lifecycle and ownership processes.
Comprehensive strategies to enhance security and safety for both model
developers and end-users are proposed. This paper aims to provide some of the
foundational pieces for more standardized security, safety, and transparency in
the development and operation of AI models and the larger open ecosystems and
communities forming around them.Summary
AI-Generated Summary