Regulación de los Agentes de IA
Regulating AI Agents
March 24, 2026
Autores: Kathrin Gardhouse, Amin Oueslati, Noam Kolt
cs.AI
Resumen
Los agentes de IA —sistemas que pueden tomar acciones de forma independiente para perseguir objetivos complejos con una supervisión humana limitada— han entrado en la corriente principal. Estos sistemas se utilizan ahora ampliamente para producir software, realizar actividades comerciales y automatizar tareas personales cotidianas. Si bien los agentes de IA afectan a muchas áreas del derecho, desde el derecho de agencia y los contratos hasta la responsabilidad extracontractual y el derecho laboral, plantean cuestiones particularmente urgentes para la regulación de la IA de mayor alcance global: la Ley de Inteligencia Artificial de la Unión Europea. Promulgada antes del desarrollo y uso generalizado de los agentes de IA, la Ley de IA de la UE enfrenta obstáculos significativos para abordar los desafíos de gobernanza que surgen de esta tecnología transformadora, como los fallos en la ejecución autónoma de tareas, el riesgo de mal uso de los agentes por parte de actores malintencionados y el acceso desigual a las oportunidades económicas que brindan los agentes de IA. Analizamos sistemáticamente la respuesta de la Ley de IA de la UE a estos desafíos, centrándonos tanto en las disposiciones sustantivas de la regulación como, crucialmente, en los marcos institucionales que buscan apoyar su implementación. Nuestro análisis de la asignación de responsabilidades de supervisión y cumplimiento en la Ley, su dependencia de la autorregulación industrial y el nivel de recursos gubernamentales ilustra cómo un marco regulatorio diseñado para sistemas de IA convencionales puede ser inadecuado para los agentes de IA. En conjunto, nuestros hallazgos sugieren que los responsables políticos de la UE y otros lugares necesitarán cambiar de rumbo, y pronto, si quieren gobernar eficazmente la próxima generación de tecnología de IA.
English
AI agents -- systems that can independently take actions to pursue complex goals with only limited human oversight -- have entered the mainstream. These systems are now being widely used to produce software, conduct business activities, and automate everyday personal tasks. While AI agents implicate many areas of law, ranging from agency law and contracts to tort liability and labor law, they present particularly pressing questions for the most globally consequential AI regulation: the European Union's AI Act. Promulgated prior to the development and widespread use of AI agents, the EU AI Act faces significant obstacles in confronting the governance challenges arising from this transformative technology, such as performance failures in autonomous task execution, the risk of misuse of agents by malicious actors, and unequal access to the economic opportunities afforded by AI agents. We systematically analyze the EU AI Act's response to these challenges, focusing on both the substantive provisions of the regulation and, crucially, the institutional frameworks that aim to support its implementation. Our analysis of the Act's allocation of monitoring and enforcement responsibilities, reliance on industry self-regulation, and level of government resourcing illustrates how a regulatory framework designed for conventional AI systems can be ill-suited to AI agents. Taken together, our findings suggest that policymakers in the EU and beyond will need to change course, and soon, if they are to effectively govern the next generation of AI technology.