Regulering van AI-agenten
Regulating AI Agents
March 24, 2026
Auteurs: Kathrin Gardhouse, Amin Oueslati, Noam Kolt
cs.AI
Samenvatting
AI-agenten – systemen die zelfstandig acties kunnen ondernemen om complexe doelstellingen te nastreven met slechts beperkt menselijk toezicht – zijn gemeengoed geworden. Deze systemen worden inmiddels op grote schaal ingezet voor het produceren van software, het uitvoeren van bedrijfsactiviteiten en het automatiseren van alledaagse persoonlijke taken. Hoewel AI-agenten raakvlakken hebben met veel rechtsgebieden, van het agentuurrecht en contractenrecht tot aansprakelijkheid uit onrechtmatige daad en arbeidsrecht, roepen zij bijzonder urgente vragen op voor de wereldwijd meest invloedrijke AI-regelgeving: de AI-verordening van de Europese Unie. De EU AI-verordening, die vóór de ontwikkeling en wijdverbreide inzet van AI-agenten werd vastgesteld, staat voor aanzienlijke obstakels bij het het hoofd bieden aan de governance-uitdagingen die voortvloeien uit deze transformerende technologie. Denk hierbij aan prestatieproblemen bij autonome taakuitvoering, het risico op misbruik van agenten door kwaadwillende actoren, en ongelijke toegang tot de economische kansen die AI-agenten bieden. Wij analyseren systematisch de reactie van de EU AI-verordening op deze uitdagingen, waarbij we ons zowel richten op de materiële bepalingen van de verordening als, cruciaal, op de institutionele kaders die de implementatie moeten ondersteunen. Onze analyse van de verdeling van monitoring- en handhavingsverantwoordelijkheden, de afhankelijkheid van zelfregulering door de industrie, en het niveau van overheidsmiddelen binnen de verordening illustreert hoe een regelgevend kader ontworpen voor conventionele AI-systemen ongeschikt kan zijn voor AI-agenten. In hun geheel suggereren onze bevindingen dat beleidsmakers in de EU en daarbuiten van koers zullen moeten veranderen, en wel snel, willen zij de volgende generatie AI-technologie effectief kunnen reguleren.
English
AI agents -- systems that can independently take actions to pursue complex goals with only limited human oversight -- have entered the mainstream. These systems are now being widely used to produce software, conduct business activities, and automate everyday personal tasks. While AI agents implicate many areas of law, ranging from agency law and contracts to tort liability and labor law, they present particularly pressing questions for the most globally consequential AI regulation: the European Union's AI Act. Promulgated prior to the development and widespread use of AI agents, the EU AI Act faces significant obstacles in confronting the governance challenges arising from this transformative technology, such as performance failures in autonomous task execution, the risk of misuse of agents by malicious actors, and unequal access to the economic opportunities afforded by AI agents. We systematically analyze the EU AI Act's response to these challenges, focusing on both the substantive provisions of the regulation and, crucially, the institutional frameworks that aim to support its implementation. Our analysis of the Act's allocation of monitoring and enforcement responsibilities, reliance on industry self-regulation, and level of government resourcing illustrates how a regulatory framework designed for conventional AI systems can be ill-suited to AI agents. Taken together, our findings suggest that policymakers in the EU and beyond will need to change course, and soon, if they are to effectively govern the next generation of AI technology.