ChatPaper.aiChatPaper

Alignement juridique pour une IA sûre et éthique

Legal Alignment for Safe and Ethical AI

January 7, 2026
papers.authors: Noam Kolt, Nicholas Caputo, Jack Boeglin, Cullen O'Keefe, Rishi Bommasani, Stephen Casper, Mariano-Florentino Cuéllar, Noah Feldman, Iason Gabriel, Gillian K. Hadfield, Lewis Hammond, Peter Henderson, Atoosa Kasirzadeh, Seth Lazar, Anka Reuel, Kevin L. Wei, Jonathan Zittrain
cs.AI

papers.abstract

L'alignement de l'intelligence artificielle (IA) englobe le problème normatif consistant à spécifier comment les systèmes d'IA doivent agir et le problème technique visant à garantir que ces systèmes respectent ces spécifications. Jusqu'à présent, l'alignement de l'IA a généralement négligé une source importante de connaissances et de pratiques pour appréhender ces problèmes : le droit. Dans cet article, nous visons à combler cette lacune en explorant comment les règles, principes et méthodes juridiques peuvent être mobilisés pour résoudre les problèmes d'alignement et éclairer la conception de systèmes d'IA fonctionnant de manière sûre et éthique. Ce champ émergent – l'alignement juridique – se concentre sur trois axes de recherche : (1) la conception de systèmes d'IA pour qu'ils se conforment au contenu des règles juridiques élaborées par des institutions et processus légitimes, (2) l'adaptation des méthodes d'interprétation juridique pour guider le raisonnement et la prise de décision des systèmes d'IA, et (3) l'utilisation de concepts juridiques comme schéma directeur structurel pour relever les défis de la fiabilité, de la confiance et de la coopération dans les systèmes d'IA. Ces axes de recherche soulèvent de nouvelles questions conceptuelles, empiriques et institutionnelles, qui incluent l'examen de l'ensemble spécifique de lois que les systèmes d'IA particuliers doivent suivre, la création d'évaluations pour mesurer leur conformité juridique dans des contextes réels, et le développement de cadres de gouvernance pour soutenir la mise en œuvre pratique de l'alignement juridique. Aborder ces questions nécessite une expertise transversale en droit, en informatique et dans d'autres disciplines, offrant à ces communautés l'opportunité de collaborer à la conception d'une IA au service du bien commun.
English
Alignment of artificial intelligence (AI) encompasses the normative problem of specifying how AI systems should act and the technical problem of ensuring AI systems comply with those specifications. To date, AI alignment has generally overlooked an important source of knowledge and practice for grappling with these problems: law. In this paper, we aim to fill this gap by exploring how legal rules, principles, and methods can be leveraged to address problems of alignment and inform the design of AI systems that operate safely and ethically. This emerging field -- legal alignment -- focuses on three research directions: (1) designing AI systems to comply with the content of legal rules developed through legitimate institutions and processes, (2) adapting methods from legal interpretation to guide how AI systems reason and make decisions, and (3) harnessing legal concepts as a structural blueprint for confronting challenges of reliability, trust, and cooperation in AI systems. These research directions present new conceptual, empirical, and institutional questions, which include examining the specific set of laws that particular AI systems should follow, creating evaluations to assess their legal compliance in real-world settings, and developing governance frameworks to support the implementation of legal alignment in practice. Tackling these questions requires expertise across law, computer science, and other disciplines, offering these communities the opportunity to collaborate in designing AI for the better.
PDF01January 13, 2026