Regolamentazione degli Agenti di Intelligenza Artificiale
Regulating AI Agents
March 24, 2026
Autori: Kathrin Gardhouse, Amin Oueslati, Noam Kolt
cs.AI
Abstract
Gli agenti di intelligenza artificiale – sistemi in grado di intraprendere autonomamente azioni per perseguire obiettivi complessi con una supervisione umana limitata – sono entrati nel mainstream. Questi sistemi sono ora ampiamente utilizzati per produrre software, condurre attività commerciali e automatizzare le attività personali quotidiane. Sebbene gli agenti IA coinvolgano molteplici ambiti giuridici, dal diritto dell’agenzia e dei contratti alla responsabilità civile e al diritto del lavoro, pongono questioni particolarmente urgenti per la regolamentazione dell’IA di maggiore rilevanza globale: l’Artificial Intelligence Act dell’Unione Europea. Promulgato prima dello sviluppo e dell’uso diffuso degli agenti IA, l’AI Act dell’UE affronta ostacoli significativi nel confrontarsi con le sfide di governance poste da questa tecnologia trasformativa, come i fallimenti operativi nell’esecuzione autonoma dei compiti, il rischio di uso improprio degli agenti da parte di attori malevoli e l’accesso diseguale alle opportunità economiche offerte dagli agenti IA. Analizziamo sistematicamente la risposta dell’AI Act dell’UE a queste sfide, focalizzandoci sia sulle disposizioni sostanziali del regolamento sia, crucialmente, sui quadri istituzionali che mirano a supportarne l’implementazione. La nostra analisi dell’allocazione delle responsabilità di monitoraggio e enforcement nell’Act, della sua dipendenza dall’autoregolamentazione del settore e del livello di risorse governative dedicate illustra come un quadro normativo progettato per sistemi di IA convenzionali possa rivelarsi inadeguato per gli agenti IA. Nel complesso, i nostri risultati suggeriscono che i decisori politici nell’UE e altrove dovranno cambiare rotta, e presto, se intendono governare efficacemente la prossima generazione di tecnologia IA.
English
AI agents -- systems that can independently take actions to pursue complex goals with only limited human oversight -- have entered the mainstream. These systems are now being widely used to produce software, conduct business activities, and automate everyday personal tasks. While AI agents implicate many areas of law, ranging from agency law and contracts to tort liability and labor law, they present particularly pressing questions for the most globally consequential AI regulation: the European Union's AI Act. Promulgated prior to the development and widespread use of AI agents, the EU AI Act faces significant obstacles in confronting the governance challenges arising from this transformative technology, such as performance failures in autonomous task execution, the risk of misuse of agents by malicious actors, and unequal access to the economic opportunities afforded by AI agents. We systematically analyze the EU AI Act's response to these challenges, focusing on both the substantive provisions of the regulation and, crucially, the institutional frameworks that aim to support its implementation. Our analysis of the Act's allocation of monitoring and enforcement responsibilities, reliance on industry self-regulation, and level of government resourcing illustrates how a regulatory framework designed for conventional AI systems can be ill-suited to AI agents. Taken together, our findings suggest that policymakers in the EU and beyond will need to change course, and soon, if they are to effectively govern the next generation of AI technology.