ChatPaper.aiChatPaper

TRiSM pour l'IA Agentique : Une Revue de la Gestion de la Confiance, des Risques et de la Sécurité dans les Systèmes Multi-Agents Agentiques Basés sur des Modèles de Langage

TRiSM for Agentic AI: A Review of Trust, Risk, and Security Management in LLM-based Agentic Multi-Agent Systems

June 4, 2025
Auteurs: Shaina Raza, Ranjan Sapkota, Manoj Karkee, Christos Emmanouilidis
cs.AI

Résumé

Les systèmes d'IA agentiques, construits sur des modèles de langage à grande échelle (LLMs) et déployés dans des configurations multi-agents, redéfinissent l'autonomie intelligente, la collaboration et la prise de décision dans les domaines de l'entreprise et de la société. Cette revue présente une analyse structurée de la gestion de la confiance, des risques et de la sécurité (TRiSM) dans le contexte des systèmes multi-agents agentiques basés sur des LLMs (AMAS). Nous commençons par examiner les fondements conceptuels de l'IA agentique, ses différences architecturales par rapport aux agents d'IA traditionnels, et les conceptions de systèmes émergents qui permettent une autonomie évolutive et utilisatrice d'outils. La TRiSM dans le cadre de l'IA agentique est ensuite détaillée à travers quatre piliers : gouvernance, explicabilité, ModelOps, et confidentialité/sécurité, chacun contextualisé pour les LLMs agentiques. Nous identifions des vecteurs de menace uniques et introduisons une taxonomie complète des risques pour les applications de l'IA agentique, soutenue par des études de cas illustrant des vulnérabilités réelles. En outre, l'article passe en revue les mécanismes de construction de la confiance, les techniques de transparence et de supervision, ainsi que les stratégies d'explicabilité de pointe dans les systèmes d'agents LLMs distribués. De plus, les métriques pour évaluer la confiance, l'interprétabilité et la performance centrée sur l'humain sont examinées, ainsi que les défis ouverts en matière de benchmarking. La sécurité et la confidentialité sont abordées à travers le chiffrement, la défense contre les attaques adverses et la conformité aux régulations évolutives en matière d'IA. L'article conclut avec une feuille de route pour une IA agentique responsable, proposant des directions de recherche pour aligner les systèmes multi-agents émergents avec des principes robustes de TRiSM en vue d'un déploiement sûr, responsable et transparent.
English
Agentic AI systems, built on large language models (LLMs) and deployed in multi-agent configurations, are redefining intelligent autonomy, collaboration and decision-making across enterprise and societal domains. This review presents a structured analysis of Trust, Risk, and Security Management (TRiSM) in the context of LLM-based agentic multi-agent systems (AMAS). We begin by examining the conceptual foundations of agentic AI, its architectural differences from traditional AI agents, and the emerging system designs that enable scalable, tool-using autonomy. The TRiSM in the agentic AI framework is then detailed through four pillars governance, explainability, ModelOps, and privacy/security each contextualized for agentic LLMs. We identify unique threat vectors and introduce a comprehensive risk taxonomy for the agentic AI applications, supported by case studies illustrating real-world vulnerabilities. Furthermore, the paper also surveys trust-building mechanisms, transparency and oversight techniques, and state-of-the-art explainability strategies in distributed LLM agent systems. Additionally, metrics for evaluating trust, interpretability, and human-centered performance are reviewed alongside open benchmarking challenges. Security and privacy are addressed through encryption, adversarial defense, and compliance with evolving AI regulations. The paper concludes with a roadmap for responsible agentic AI, proposing research directions to align emerging multi-agent systems with robust TRiSM principles for safe, accountable, and transparent deployment.
PDF32June 5, 2025