ChatPaper.aiChatPaper

Юридическое согласование для обеспечения безопасности и этичности ИИ

Legal Alignment for Safe and Ethical AI

January 7, 2026
Авторы: Noam Kolt, Nicholas Caputo, Jack Boeglin, Cullen O'Keefe, Rishi Bommasani, Stephen Casper, Mariano-Florentino Cuéllar, Noah Feldman, Iason Gabriel, Gillian K. Hadfield, Lewis Hammond, Peter Henderson, Atoosa Kasirzadeh, Seth Lazar, Anka Reuel, Kevin L. Wei, Jonathan Zittrain
cs.AI

Аннотация

Согласование искусственного интеллекта (ИИ) включает нормативную проблему определения того, как должны действовать системы ИИ, и техническую проблему обеспечения соответствия систем ИИ этим спецификациям. До настоящего времени в вопросах согласования ИИ в целом упускался из виду важный источник знаний и практики для решения этих проблем: право. В данной статье мы стремимся заполнить этот пробел, исследуя, как правовые нормы, принципы и методы могут быть использованы для решения проблем согласования и для проектирования систем ИИ, которые функционируют безопасно и этично. Эта формирующаяся область — *правовое согласование* — фокусируется на трех направлениях исследований: (1) проектирование систем ИИ для соблюдения содержания правовых норм, разработанных легитимными институтами и процессами, (2) адаптация методов юридического толкования для руководства процессом рассуждений и принятия решений системами ИИ и (3) использование правовых концепций в качестве структурного образца для преодоления проблем надежности, доверия и кооперации в системах ИИ. Эти исследовательские направления порождают новые концептуальные, эмпирические и институциональные вопросы, которые включают определение конкретного набора законов, которым должны следовать определенные системы ИИ, создание методик оценки их правового соответствия в реальных условиях и разработку управленческих структур для поддержки реализации правового согласования на практике. Решение этих вопросов требует экспертизы в области права, информатики и других дисциплин, предоставляя этим сообществам возможность сотрудничать в создании ИИ для общего блага.
English
Alignment of artificial intelligence (AI) encompasses the normative problem of specifying how AI systems should act and the technical problem of ensuring AI systems comply with those specifications. To date, AI alignment has generally overlooked an important source of knowledge and practice for grappling with these problems: law. In this paper, we aim to fill this gap by exploring how legal rules, principles, and methods can be leveraged to address problems of alignment and inform the design of AI systems that operate safely and ethically. This emerging field -- legal alignment -- focuses on three research directions: (1) designing AI systems to comply with the content of legal rules developed through legitimate institutions and processes, (2) adapting methods from legal interpretation to guide how AI systems reason and make decisions, and (3) harnessing legal concepts as a structural blueprint for confronting challenges of reliability, trust, and cooperation in AI systems. These research directions present new conceptual, empirical, and institutional questions, which include examining the specific set of laws that particular AI systems should follow, creating evaluations to assess their legal compliance in real-world settings, and developing governance frameworks to support the implementation of legal alignment in practice. Tackling these questions requires expertise across law, computer science, and other disciplines, offering these communities the opportunity to collaborate in designing AI for the better.
PDF01January 13, 2026