ChatPaper.aiChatPaper

안전하고 윤리적인 AI를 위한 법률적 정합성

Legal Alignment for Safe and Ethical AI

January 7, 2026
저자: Noam Kolt, Nicholas Caputo, Jack Boeglin, Cullen O'Keefe, Rishi Bommasani, Stephen Casper, Mariano-Florentino Cuéllar, Noah Feldman, Iason Gabriel, Gillian K. Hadfield, Lewis Hammond, Peter Henderson, Atoosa Kasirzadeh, Seth Lazar, Anka Reuel, Kevin L. Wei, Jonathan Zittrain
cs.AI

초록

인공지능(AI) 얼라인먼트는 AI 시스템이 어떻게 행동해야 하는지를 규정하는 규범적 문제와 AI 시스템이 그러한 규격을 준수하도록 보장하는 기술적 문제를 포괄한다. 현재까지 AI 얼라인먼트 연구는 이러한 문제를 해결하기 위한 중요한 지식과 실천의 원천인 법을 일반적으로 간과해왔다. 본 논문은 법적 규칙, 원칙 및 방법론이 얼라인먼트 문제 해결에 어떻게 활용될 수 있으며, 안전하고 윤리적으로 운영되는 AI 시스템 설계에 어떻게 정보를 제공할 수 있는지 탐구함으로써 이 격차를 메우고자 한다. 이 신흥 분야인 '법적 얼라인먼트'는 세 가지 연구 방향에 중점을 둔다: (1) 합법적 제도와 절차를 통해 발전된 법적 규칙의 내용을 준수하도록 AI 시스템을 설계하는 것, (2) 법 해석 방법론을 적용하여 AI 시스템의 추론 및 의사 결정 방식을 안내하는 것, (3) AI 시스템의 신뢰성, 신뢰 및 협력 과제에 대처하기 위한 구조적 청사진으로 법적 개념을 활용하는 것. 이러한 연구 방향은 새로운 개념적, 실증적, 제도적 질문들을 제기하며, 여기에는 특정 AI 시스템이 따라야 할 구체적인 법 규범 집합을 검토하고, 실제 환경에서의 법적 준수 여부를 평가하기 위한 평가 방법을 창안하며, 실무에서 법적 얼라인먼트 구현을 지원할 거버넌스 체계를 개발하는 것이 포함된다. 이러한 질문들을 해결하려면 법학, 컴퓨터공학 및 기타 학문 분야에 걸친 전문성이 필요하며, 이는 각 학문 공동체에 더 나은 AI 설계를 위해 협력할 기회를 제공한다.
English
Alignment of artificial intelligence (AI) encompasses the normative problem of specifying how AI systems should act and the technical problem of ensuring AI systems comply with those specifications. To date, AI alignment has generally overlooked an important source of knowledge and practice for grappling with these problems: law. In this paper, we aim to fill this gap by exploring how legal rules, principles, and methods can be leveraged to address problems of alignment and inform the design of AI systems that operate safely and ethically. This emerging field -- legal alignment -- focuses on three research directions: (1) designing AI systems to comply with the content of legal rules developed through legitimate institutions and processes, (2) adapting methods from legal interpretation to guide how AI systems reason and make decisions, and (3) harnessing legal concepts as a structural blueprint for confronting challenges of reliability, trust, and cooperation in AI systems. These research directions present new conceptual, empirical, and institutional questions, which include examining the specific set of laws that particular AI systems should follow, creating evaluations to assess their legal compliance in real-world settings, and developing governance frameworks to support the implementation of legal alignment in practice. Tackling these questions requires expertise across law, computer science, and other disciplines, offering these communities the opportunity to collaborate in designing AI for the better.
PDF01January 13, 2026