Rechtliche Ausrichtung für sichere und ethische KI.
Legal Alignment for Safe and Ethical AI
January 7, 2026
papers.authors: Noam Kolt, Nicholas Caputo, Jack Boeglin, Cullen O'Keefe, Rishi Bommasani, Stephen Casper, Mariano-Florentino Cuéllar, Noah Feldman, Iason Gabriel, Gillian K. Hadfield, Lewis Hammond, Peter Henderson, Atoosa Kasirzadeh, Seth Lazar, Anka Reuel, Kevin L. Wei, Jonathan Zittrain
cs.AI
papers.abstract
Die Ausrichtung künstlicher Intelligenz (KI) umfasst sowohl das normative Problem der Spezifikation, wie KI-Systeme handeln sollten, als auch das technische Problem der Gewährleistung, dass KI-Systeme diesen Spezifikationen entsprechen. Bislang hat sich die KI-Ausrichtung generell eine wichtige Wissens- und Praxisquelle zur Bewältigung dieser Probleme übersehen: das Recht. In diesem Beitrag wollen wir diese Lücke schließen, indem wir untersuchen, wie Rechtsnormen, Prinzipien und Methoden genutzt werden können, um Probleme der Ausrichtung anzugehen und die Gestaltung von KI-Systemen zu informieren, die sicher und ethisch operieren. Dieses neue Feld – die rechtliche Ausrichtung – konzentriert sich auf drei Forschungsrichtungen: (1) die Gestaltung von KI-Systemen, damit sie den Inhalt von Rechtsnormen einhalten, die durch legitime Institutionen und Prozesse entwickelt wurden, (2) die Anpassung von Methoden der Rechtsauslegung, um zu steuern, wie KI-Systeme schlussfolgern und Entscheidungen treffen, und (3) die Nutzung rechtlicher Konzepte als strukturelle Blaupause zur Bewältigung von Herausforderungen bezüglich Zuverlässigkeit, Vertrauen und Kooperation in KI-Systemen. Diese Forschungsrichtungen werfen neue konzeptionelle, empirische und institutionelle Fragen auf, darunter die Untersuchung des spezifischen Rechtsrahmens, den bestimmte KI-Systeme befolgen sollten, die Entwicklung von Evaluierungsmethoden zur Bewertung ihrer Rechtskonformität in realen Anwendungsszenarien und die Erarbeitung von Governance-Strukturen zur praktischen Umsetzung rechtlicher Ausrichtung. Die Bearbeitung dieser Fragen erfordert Expertise aus Rechtswissenschaft, Informatik und anderen Disziplinen und bietet diesen Gemeinschaften die Möglichkeit, bei der Gestaltung von KI für das Gemeinwohl zusammenzuarbeiten.
English
Alignment of artificial intelligence (AI) encompasses the normative problem of specifying how AI systems should act and the technical problem of ensuring AI systems comply with those specifications. To date, AI alignment has generally overlooked an important source of knowledge and practice for grappling with these problems: law. In this paper, we aim to fill this gap by exploring how legal rules, principles, and methods can be leveraged to address problems of alignment and inform the design of AI systems that operate safely and ethically. This emerging field -- legal alignment -- focuses on three research directions: (1) designing AI systems to comply with the content of legal rules developed through legitimate institutions and processes, (2) adapting methods from legal interpretation to guide how AI systems reason and make decisions, and (3) harnessing legal concepts as a structural blueprint for confronting challenges of reliability, trust, and cooperation in AI systems. These research directions present new conceptual, empirical, and institutional questions, which include examining the specific set of laws that particular AI systems should follow, creating evaluations to assess their legal compliance in real-world settings, and developing governance frameworks to support the implementation of legal alignment in practice. Tackling these questions requires expertise across law, computer science, and other disciplines, offering these communities the opportunity to collaborate in designing AI for the better.