Регулирование ИИ-агентов
Regulating AI Agents
March 24, 2026
Авторы: Kathrin Gardhouse, Amin Oueslati, Noam Kolt
cs.AI
Аннотация
Искусственные интеллектуальные агенты — системы, способные самостоятельно предпринимать действия для достижения сложных целей при ограниченном контроле со стороны человека — вышли на передний план. Эти системы теперь широко используются для создания программного обеспечения, ведения бизнес-деятельности и автоматизации повседневных личных задач. Хотя ИИ-агенты затрагивают многие области права, от агентского права и договоров до деликтной ответственности и трудового законодательства, они ставят особенно острые вопросы для наиболее значимого глобального регулирования ИИ — Закона Европейского Союза об искусственном интеллекте (AI Act). Принятый до разработки и широкого распространения ИИ-агентов, Закон ЕС об ИИ сталкивается со значительными препятствиями в решении проблем управления, возникающих в связи с этой преобразующей технологией, таких как сбои в работе при автономном выполнении задач, риск misuse агентов злоумышленниками и неравный доступ к экономическим возможностям, предоставляемым ИИ-агентами. Мы систематически анализируем реакцию Закона ЕС об ИИ на эти вызовы, уделяя внимание как материально-правовым положениям регламента, так и, что крайне важно, институциональным框架, призванным обеспечить его реализацию. Наш анализ распределения Законом обязанностей по мониторингу и правоприменению, reliance на саморегулирование отрасли и уровня государственного финансирования показывает, как регулирующая框架, разработанная для традиционных систем ИИ, может оказаться непригодной для ИИ-агентов. В совокупности наши выводы свидетельствуют о том, что политикам в ЕС и за его пределами необходимо изменить курс, и в ближайшее время, если они хотят эффективно регулировать следующее поколение технологий ИИ.
English
AI agents -- systems that can independently take actions to pursue complex goals with only limited human oversight -- have entered the mainstream. These systems are now being widely used to produce software, conduct business activities, and automate everyday personal tasks. While AI agents implicate many areas of law, ranging from agency law and contracts to tort liability and labor law, they present particularly pressing questions for the most globally consequential AI regulation: the European Union's AI Act. Promulgated prior to the development and widespread use of AI agents, the EU AI Act faces significant obstacles in confronting the governance challenges arising from this transformative technology, such as performance failures in autonomous task execution, the risk of misuse of agents by malicious actors, and unequal access to the economic opportunities afforded by AI agents. We systematically analyze the EU AI Act's response to these challenges, focusing on both the substantive provisions of the regulation and, crucially, the institutional frameworks that aim to support its implementation. Our analysis of the Act's allocation of monitoring and enforcement responsibilities, reliance on industry self-regulation, and level of government resourcing illustrates how a regulatory framework designed for conventional AI systems can be ill-suited to AI agents. Taken together, our findings suggest that policymakers in the EU and beyond will need to change course, and soon, if they are to effectively govern the next generation of AI technology.