エージェンシックAIのためのTRiSM:LLMベースのエージェンシック・マルチエージェントシステムにおける 信頼、リスク、セキュリティ管理のレビュー
TRiSM for Agentic AI: A Review of Trust, Risk, and Security Management in LLM-based Agentic Multi-Agent Systems
June 4, 2025
著者: Shaina Raza, Ranjan Sapkota, Manoj Karkee, Christos Emmanouilidis
cs.AI
要旨
大規模言語モデル(LLM)を基盤とし、マルチエージェント構成で展開されるエージェンシックAIシステムは、企業や社会の領域における知的自律性、協調、意思決定を再定義しています。本レビューでは、LLMベースのエージェンシックマルチエージェントシステム(AMAS)における信頼、リスク、セキュリティ管理(TRiSM)の構造化された分析を提示します。まず、エージェンシックAIの概念的基盤、従来のAIエージェントとのアーキテクチャ的差異、およびスケーラブルなツール使用自律性を可能にする新興システム設計を検討します。次に、エージェンシックAIフレームワークにおけるTRiSMを、ガバナンス、説明可能性、ModelOps、プライバシー/セキュリティの4つの柱を通じて詳細に説明し、それぞれをエージェンシックLLMに即して文脈化します。独自の脅威ベクトルを特定し、エージェンシックAIアプリケーションの包括的なリスク分類を提示し、現実世界の脆弱性を示すケーススタディで補強します。さらに、分散型LLMエージェントシステムにおける信頼構築メカニズム、透明性と監視技術、最先端の説明可能性戦略についても調査します。また、信頼、解釈可能性、人間中心のパフォーマンスを評価するための指標を、オープンベンチマークの課題とともにレビューします。セキュリティとプライバシーについては、暗号化、敵対的防御、進化するAI規制への準拠を通じて対応します。本論文は、責任あるエージェンシックAIのロードマップで締めくくり、新興マルチエージェントシステムを堅牢なTRiSM原則に整合させ、安全で説明責任があり透明性のある展開を実現するための研究方向性を提案します。
English
Agentic AI systems, built on large language models (LLMs) and deployed in
multi-agent configurations, are redefining intelligent autonomy, collaboration
and decision-making across enterprise and societal domains. This review
presents a structured analysis of Trust, Risk, and Security Management (TRiSM)
in the context of LLM-based agentic multi-agent systems (AMAS). We begin by
examining the conceptual foundations of agentic AI, its architectural
differences from traditional AI agents, and the emerging system designs that
enable scalable, tool-using autonomy. The TRiSM in the agentic AI framework is
then detailed through four pillars governance, explainability, ModelOps, and
privacy/security each contextualized for agentic LLMs. We identify unique
threat vectors and introduce a comprehensive risk taxonomy for the agentic AI
applications, supported by case studies illustrating real-world
vulnerabilities. Furthermore, the paper also surveys trust-building mechanisms,
transparency and oversight techniques, and state-of-the-art explainability
strategies in distributed LLM agent systems. Additionally, metrics for
evaluating trust, interpretability, and human-centered performance are reviewed
alongside open benchmarking challenges. Security and privacy are addressed
through encryption, adversarial defense, and compliance with evolving AI
regulations. The paper concludes with a roadmap for responsible agentic AI,
proposing research directions to align emerging multi-agent systems with robust
TRiSM principles for safe, accountable, and transparent deployment.