信頼構築:AIにおけるセキュリティ、安全性、透明性の基盤
Building Trust: Foundations of Security, Safety and Transparency in AI
November 19, 2024
著者: Huzaifa Sidhpurwala, Garth Mollett, Emily Fox, Mark Bestavros, Huamin Chen
cs.AI
要旨
本論文では、急速に進化する公開AIモデルのエコシステムと、セキュリティおよび安全性の景観への潜在的な影響について探究します。AIモデルがますます普及する中、その潜在的なリスクや脆弱性を理解することが重要です。現在のセキュリティおよび安全性のシナリオを検討し、トラッキングの問題、是正、AIモデルのライフサイクルや所有権プロセスの明白な不在などの課題を強調します。モデル開発者とエンドユーザーの両方のセキュリティと安全性を向上させる包括的な戦略が提案されています。本論文は、AIモデルの開発と運用、およびそれを取り巻く大規模なオープンエコシステムとコミュニティにおけるより標準化されたセキュリティ、安全性、透明性の基盤となるいくつかの要素を提供することを目的としています。
English
This paper explores the rapidly evolving ecosystem of publicly available AI
models, and their potential implications on the security and safety landscape.
As AI models become increasingly prevalent, understanding their potential risks
and vulnerabilities is crucial. We review the current security and safety
scenarios while highlighting challenges such as tracking issues, remediation,
and the apparent absence of AI model lifecycle and ownership processes.
Comprehensive strategies to enhance security and safety for both model
developers and end-users are proposed. This paper aims to provide some of the
foundational pieces for more standardized security, safety, and transparency in
the development and operation of AI models and the larger open ecosystems and
communities forming around them.Summary
AI-Generated Summary