TRiSM per l'IA Agente: Una Rassegna su Gestione della Fiducia, del Rischio e della Sicurezza nei Sistemi Multi-Agente Basati su LLM
TRiSM for Agentic AI: A Review of Trust, Risk, and Security Management in LLM-based Agentic Multi-Agent Systems
June 4, 2025
Autori: Shaina Raza, Ranjan Sapkota, Manoj Karkee, Christos Emmanouilidis
cs.AI
Abstract
I sistemi di intelligenza artificiale agentica, basati su modelli linguistici di grandi dimensioni (LLM) e implementati in configurazioni multi-agente, stanno ridefinendo l'autonomia intelligente, la collaborazione e il processo decisionale in ambiti aziendali e sociali. Questa rassegna presenta un'analisi strutturata della gestione di Fiducia, Rischio e Sicurezza (TRiSM) nel contesto dei sistemi multi-agente agentici basati su LLM (AMAS). Iniziamo esaminando i fondamenti concettuali dell'IA agentica, le differenze architettoniche rispetto agli agenti AI tradizionali e i design di sistema emergenti che abilitano un'autonomia scalabile e orientata all'uso di strumenti. Il TRiSM nel framework dell'IA agentica viene poi dettagliato attraverso quattro pilastri: governance, spiegabilità, ModelOps e privacy/sicurezza, ciascuno contestualizzato per gli LLM agentici. Identifichiamo vettori di minaccia unici e introduciamo una tassonomia completa del rischio per le applicazioni di IA agentica, supportata da casi di studio che illustrano vulnerabilità del mondo reale. Inoltre, il documento esamina i meccanismi di costruzione della fiducia, le tecniche di trasparenza e supervisione e le strategie di spiegabilità all'avanguardia nei sistemi distribuiti di agenti LLM. Vengono inoltre riviste le metriche per valutare la fiducia, l'interpretabilità e le prestazioni centrate sull'uomo, insieme alle sfide aperte nel benchmarking. Sicurezza e privacy sono affrontate attraverso crittografia, difesa contro attacchi avversari e conformità alle normative AI in evoluzione. Il documento si conclude con una roadmap per un'IA agentica responsabile, proponendo direzioni di ricerca per allineare i sistemi multi-agente emergenti ai principi TRiSM robusti per un dispiegamento sicuro, responsabile e trasparente.
English
Agentic AI systems, built on large language models (LLMs) and deployed in
multi-agent configurations, are redefining intelligent autonomy, collaboration
and decision-making across enterprise and societal domains. This review
presents a structured analysis of Trust, Risk, and Security Management (TRiSM)
in the context of LLM-based agentic multi-agent systems (AMAS). We begin by
examining the conceptual foundations of agentic AI, its architectural
differences from traditional AI agents, and the emerging system designs that
enable scalable, tool-using autonomy. The TRiSM in the agentic AI framework is
then detailed through four pillars governance, explainability, ModelOps, and
privacy/security each contextualized for agentic LLMs. We identify unique
threat vectors and introduce a comprehensive risk taxonomy for the agentic AI
applications, supported by case studies illustrating real-world
vulnerabilities. Furthermore, the paper also surveys trust-building mechanisms,
transparency and oversight techniques, and state-of-the-art explainability
strategies in distributed LLM agent systems. Additionally, metrics for
evaluating trust, interpretability, and human-centered performance are reviewed
alongside open benchmarking challenges. Security and privacy are addressed
through encryption, adversarial defense, and compliance with evolving AI
regulations. The paper concludes with a roadmap for responsible agentic AI,
proposing research directions to align emerging multi-agent systems with robust
TRiSM principles for safe, accountable, and transparent deployment.