ChatPaper.aiChatPaper

Juridische Afstemming voor Veilige en Ethische AI

Legal Alignment for Safe and Ethical AI

January 7, 2026
Auteurs: Noam Kolt, Nicholas Caputo, Jack Boeglin, Cullen O'Keefe, Rishi Bommasani, Stephen Casper, Mariano-Florentino Cuéllar, Noah Feldman, Iason Gabriel, Gillian K. Hadfield, Lewis Hammond, Peter Henderson, Atoosa Kasirzadeh, Seth Lazar, Anka Reuel, Kevin L. Wei, Jonathan Zittrain
cs.AI

Samenvatting

Afstemming van kunstmatige intelligentie (KI) omvat het normatieve probleem van het specificeren hoe KI-systemen zouden moeten handelen en het technische probleem van het waarborgen dat KI-systemen aan die specificaties voldoen. Tot op heden heeft KI-afstemming over het algemeen een belangrijke bron van kennis en praktijk voor het aanpakken van deze problemen over het hoofd gezien: het recht. In dit artikel willen we deze leemte opvullen door te onderzoeken hoe juridische regels, principes en methoden kunnen worden ingezet om problemen van afstemming aan te pakken en het ontwerp van KI-systemen die veilig en ethisch opereren te informeren. Dit opkomende vakgebied – juridische afstemming – richt zich op drie onderzoeksrichtingen: (1) het ontwerpen van KI-systemen om te voldoen aan de inhoud van juridische regels die via legitieme instituten en processen zijn ontwikkeld, (2) het aanpassen van methoden uit de juridische interpretatieleer om te sturen hoe KI-systemen redeneren en beslissingen nemen, en (3) het benutten van juridische concepten als blauwdruk voor het structureel aanpakken van uitdagingen rond betrouwbaarheid, vertrouwen en samenwerking in KI-systemen. Deze onderzoeksrichtingen werpen nieuwe conceptuele, empirische en institutionele vragen op, zoals het onderzoeken van het specifieke pakket wetten dat bepaalde KI-systemen moeten volgen, het creëren van evaluaties om hun wettelijke naleving in praktijksituaties te beoordelen, en het ontwikkelen van governancekaders om de implementatie van juridische afstemming in de praktijk te ondersteunen. Het aanpakken van deze vragen vereist expertise uit het recht, de informatica en andere disciplines, wat deze gemeenschappen de kans biedt om samen te werken aan het ontwerpen van KI voor het algemeen belang.
English
Alignment of artificial intelligence (AI) encompasses the normative problem of specifying how AI systems should act and the technical problem of ensuring AI systems comply with those specifications. To date, AI alignment has generally overlooked an important source of knowledge and practice for grappling with these problems: law. In this paper, we aim to fill this gap by exploring how legal rules, principles, and methods can be leveraged to address problems of alignment and inform the design of AI systems that operate safely and ethically. This emerging field -- legal alignment -- focuses on three research directions: (1) designing AI systems to comply with the content of legal rules developed through legitimate institutions and processes, (2) adapting methods from legal interpretation to guide how AI systems reason and make decisions, and (3) harnessing legal concepts as a structural blueprint for confronting challenges of reliability, trust, and cooperation in AI systems. These research directions present new conceptual, empirical, and institutional questions, which include examining the specific set of laws that particular AI systems should follow, creating evaluations to assess their legal compliance in real-world settings, and developing governance frameworks to support the implementation of legal alignment in practice. Tackling these questions requires expertise across law, computer science, and other disciplines, offering these communities the opportunity to collaborate in designing AI for the better.
PDF32January 16, 2026