Perché gli agenti AI web sono più vulnerabili rispetto agli LLM autonomi? Un'analisi sulla sicurezza
Why Are Web AI Agents More Vulnerable Than Standalone LLMs? A Security Analysis
February 27, 2025
Autori: Jeffrey Yang Fan Chiang, Seungjae Lee, Jia-Bin Huang, Furong Huang, Yizheng Chen
cs.AI
Abstract
I recenti progressi negli agenti di intelligenza artificiale web hanno dimostrato capacità notevoli nell'affrontare compiti complessi di navigazione sul web. Tuttavia, ricerche emergenti mostrano che questi agenti presentano una maggiore vulnerabilità rispetto ai modelli linguistici di grandi dimensioni (LLM) autonomi, nonostante entrambi siano costruiti su modelli allineati alla sicurezza. Questa discrepanza è particolarmente preoccupante data la maggiore flessibilità degli agenti di intelligenza artificiale web rispetto agli LLM autonomi, che potrebbe esporli a una gamma più ampia di input utente avversari. Per costruire una struttura che affronti queste preoccupazioni, questo studio indaga i fattori sottostanti che contribuiscono all'aumentata vulnerabilità degli agenti di intelligenza artificiale web. In particolare, questa disparità deriva dalle differenze multifaccettate tra gli agenti di intelligenza artificiale web e gli LLM autonomi, nonché dai segnali complessi - sfumature che metriche di valutazione semplici, come il tasso di successo, spesso non riescono a catturare. Per affrontare queste sfide, proponiamo un'analisi a livello di componente e un framework di valutazione più granulare e sistematico. Attraverso questa indagine fine, identifichiamo tre fattori critici che amplificano la vulnerabilità degli agenti di intelligenza artificiale web: (1) l'incorporazione degli obiettivi dell'utente nel prompt di sistema, (2) la generazione di azioni multi-step e (3) le capacità osservative. I nostri risultati evidenziano la pressante necessità di migliorare la sicurezza e la robustezza nella progettazione degli agenti di intelligenza artificiale e forniscono intuizioni pratiche per strategie di difesa mirate.
English
Recent advancements in Web AI agents have demonstrated remarkable
capabilities in addressing complex web navigation tasks. However, emerging
research shows that these agents exhibit greater vulnerability compared to
standalone Large Language Models (LLMs), despite both being built upon the same
safety-aligned models. This discrepancy is particularly concerning given the
greater flexibility of Web AI Agent compared to standalone LLMs, which may
expose them to a wider range of adversarial user inputs. To build a scaffold
that addresses these concerns, this study investigates the underlying factors
that contribute to the increased vulnerability of Web AI agents. Notably, this
disparity stems from the multifaceted differences between Web AI agents and
standalone LLMs, as well as the complex signals - nuances that simple
evaluation metrics, such as success rate, often fail to capture. To tackle
these challenges, we propose a component-level analysis and a more granular,
systematic evaluation framework. Through this fine-grained investigation, we
identify three critical factors that amplify the vulnerability of Web AI
agents; (1) embedding user goals into the system prompt, (2) multi-step action
generation, and (3) observational capabilities. Our findings highlights the
pressing need to enhance security and robustness in AI agent design and provide
actionable insights for targeted defense strategies.Summary
AI-Generated Summary