ChatPaper.aiChatPaper

信頼構築:AIにおけるセキュリティ、安全性、透明性の基盤

Building Trust: Foundations of Security, Safety and Transparency in AI

November 19, 2024
著者: Huzaifa Sidhpurwala, Garth Mollett, Emily Fox, Mark Bestavros, Huamin Chen
cs.AI

要旨

本論文では、急速に進化する公開AIモデルのエコシステムと、セキュリティおよび安全性の景観への潜在的な影響について探究します。AIモデルがますます普及する中、その潜在的なリスクや脆弱性を理解することが重要です。現在のセキュリティおよび安全性のシナリオを検討し、トラッキングの問題、是正、AIモデルのライフサイクルや所有権プロセスの明白な不在などの課題を強調します。モデル開発者とエンドユーザーの両方のセキュリティと安全性を向上させる包括的な戦略が提案されています。本論文は、AIモデルの開発と運用、およびそれを取り巻く大規模なオープンエコシステムとコミュニティにおけるより標準化されたセキュリティ、安全性、透明性の基盤となるいくつかの要素を提供することを目的としています。
English
This paper explores the rapidly evolving ecosystem of publicly available AI models, and their potential implications on the security and safety landscape. As AI models become increasingly prevalent, understanding their potential risks and vulnerabilities is crucial. We review the current security and safety scenarios while highlighting challenges such as tracking issues, remediation, and the apparent absence of AI model lifecycle and ownership processes. Comprehensive strategies to enhance security and safety for both model developers and end-users are proposed. This paper aims to provide some of the foundational pieces for more standardized security, safety, and transparency in the development and operation of AI models and the larger open ecosystems and communities forming around them.

Summary

AI-Generated Summary

PDF112November 20, 2024