ChatPaper.aiChatPaper

TRiSM para IA Agente: Uma Revisão sobre Gestão de Confiança, Riscos e Segurança em Sistemas Multiagentes Baseados em LLMs com Capacidades Agentes

TRiSM for Agentic AI: A Review of Trust, Risk, and Security Management in LLM-based Agentic Multi-Agent Systems

June 4, 2025
Autores: Shaina Raza, Ranjan Sapkota, Manoj Karkee, Christos Emmanouilidis
cs.AI

Resumo

Sistemas de IA agentes, construídos com base em grandes modelos de linguagem (LLMs) e implantados em configurações multiagentes, estão redefinindo a autonomia inteligente, a colaboração e a tomada de decisões em domínios empresariais e sociais. Esta revisão apresenta uma análise estruturada de Gerenciamento de Confiança, Risco e Segurança (TRiSM) no contexto de sistemas multiagentes baseados em LLMs (AMAS). Começamos examinando os fundamentos conceituais da IA agente, suas diferenças arquitetônicas em relação aos agentes de IA tradicionais e os designs de sistemas emergentes que permitem autonomia escalável com uso de ferramentas. O TRiSM no framework de IA agente é detalhado através de quatro pilares: governança, explicabilidade, ModelOps e privacidade/segurança, cada um contextualizado para LLMs agentes. Identificamos vetores de ameaça únicos e introduzimos uma taxonomia de risco abrangente para aplicações de IA agente, apoiada por estudos de caso que ilustram vulnerabilidades do mundo real. Além disso, o artigo também examina mecanismos de construção de confiança, técnicas de transparência e supervisão, e estratégias de explicabilidade de última geração em sistemas distribuídos de agentes LLM. Métricas para avaliar confiança, interpretabilidade e desempenho centrado no humano são revisadas juntamente com desafios abertos de benchmarking. Segurança e privacidade são abordadas por meio de criptografia, defesa contra adversários e conformidade com regulamentações de IA em evolução. O artigo conclui com um roteiro para IA agente responsável, propondo direções de pesquisa para alinhar sistemas multiagentes emergentes com princípios robustos de TRiSM para implantação segura, responsável e transparente.
English
Agentic AI systems, built on large language models (LLMs) and deployed in multi-agent configurations, are redefining intelligent autonomy, collaboration and decision-making across enterprise and societal domains. This review presents a structured analysis of Trust, Risk, and Security Management (TRiSM) in the context of LLM-based agentic multi-agent systems (AMAS). We begin by examining the conceptual foundations of agentic AI, its architectural differences from traditional AI agents, and the emerging system designs that enable scalable, tool-using autonomy. The TRiSM in the agentic AI framework is then detailed through four pillars governance, explainability, ModelOps, and privacy/security each contextualized for agentic LLMs. We identify unique threat vectors and introduce a comprehensive risk taxonomy for the agentic AI applications, supported by case studies illustrating real-world vulnerabilities. Furthermore, the paper also surveys trust-building mechanisms, transparency and oversight techniques, and state-of-the-art explainability strategies in distributed LLM agent systems. Additionally, metrics for evaluating trust, interpretability, and human-centered performance are reviewed alongside open benchmarking challenges. Security and privacy are addressed through encryption, adversarial defense, and compliance with evolving AI regulations. The paper concludes with a roadmap for responsible agentic AI, proposing research directions to align emerging multi-agent systems with robust TRiSM principles for safe, accountable, and transparent deployment.
PDF32June 5, 2025