Alineación Legal para una IA Segura y Ética
Legal Alignment for Safe and Ethical AI
January 7, 2026
Autores: Noam Kolt, Nicholas Caputo, Jack Boeglin, Cullen O'Keefe, Rishi Bommasani, Stephen Casper, Mariano-Florentino Cuéllar, Noah Feldman, Iason Gabriel, Gillian K. Hadfield, Lewis Hammond, Peter Henderson, Atoosa Kasirzadeh, Seth Lazar, Anka Reuel, Kevin L. Wei, Jonathan Zittrain
cs.AI
Resumen
La alineación de la inteligencia artificial (IA) abarca tanto el problema normativo de especificar cómo deben actuar los sistemas de IA como el problema técnico de garantizar que estos sistemas cumplan con dichas especificaciones. Hasta la fecha, la alineación de la IA generalmente ha pasado por alto una fuente importante de conocimiento y práctica para abordar estos problemas: el derecho. En este artículo, pretendemos llenar este vacío explorando cómo las normas, principios y métodos jurídicos pueden aprovecharse para abordar los problemas de alineación e informar el diseño de sistemas de IA que operen de manera segura y ética. Este campo emergente —la alineación legal— se centra en tres direcciones de investigación: (1) diseñar sistemas de IA para que cumplan con el contenido de las normas jurídicas desarrolladas mediante instituciones y procesos legítimos, (2) adaptar métodos de la interpretación legal para guiar cómo los sistemas de IA razonan y toman decisiones, y (3) aprovechar conceptos jurídicos como un plan estructural para enfrentar los desafíos de confiabilidad, confianza y cooperación en los sistemas de IA. Estas direcciones de investigación presentan nuevas cuestiones conceptuales, empíricas e institucionales, que incluyen examinar el conjunto específico de leyes que deben seguir sistemas particulares de IA, crear evaluaciones para valorar su cumplimiento legal en entornos del mundo real y desarrollar marcos de gobernanza para apoyar la implementación práctica de la alineación legal. Abordar estas cuestiones requiere experiencia en derecho, informática y otras disciplinas, ofreciendo a estas comunidades la oportunidad de colaborar en el diseño de una IA para el bien común.
English
Alignment of artificial intelligence (AI) encompasses the normative problem of specifying how AI systems should act and the technical problem of ensuring AI systems comply with those specifications. To date, AI alignment has generally overlooked an important source of knowledge and practice for grappling with these problems: law. In this paper, we aim to fill this gap by exploring how legal rules, principles, and methods can be leveraged to address problems of alignment and inform the design of AI systems that operate safely and ethically. This emerging field -- legal alignment -- focuses on three research directions: (1) designing AI systems to comply with the content of legal rules developed through legitimate institutions and processes, (2) adapting methods from legal interpretation to guide how AI systems reason and make decisions, and (3) harnessing legal concepts as a structural blueprint for confronting challenges of reliability, trust, and cooperation in AI systems. These research directions present new conceptual, empirical, and institutional questions, which include examining the specific set of laws that particular AI systems should follow, creating evaluations to assess their legal compliance in real-world settings, and developing governance frameworks to support the implementation of legal alignment in practice. Tackling these questions requires expertise across law, computer science, and other disciplines, offering these communities the opportunity to collaborate in designing AI for the better.