ChatPaper.aiChatPaper

Alinhamento Legal para IA Segura e Ética

Legal Alignment for Safe and Ethical AI

January 7, 2026
Autores: Noam Kolt, Nicholas Caputo, Jack Boeglin, Cullen O'Keefe, Rishi Bommasani, Stephen Casper, Mariano-Florentino Cuéllar, Noah Feldman, Iason Gabriel, Gillian K. Hadfield, Lewis Hammond, Peter Henderson, Atoosa Kasirzadeh, Seth Lazar, Anka Reuel, Kevin L. Wei, Jonathan Zittrain
cs.AI

Resumo

O alinhamento da inteligência artificial (IA) engloba o problema normativo de especificar como os sistemas de IA devem agir e o problema técnico de garantir que esses sistemas cumpram essas especificações. Até o momento, o alinhamento da IA geralmente negligenciou uma importante fonte de conhecimento e prática para lidar com esses problemas: o direito. Neste artigo, pretendemos preencher essa lacuna explorando como regras, princípios e métodos jurídicos podem ser aproveitados para abordar problemas de alinhamento e informar o projeto de sistemas de IA que operem de forma segura e ética. Este campo emergente – o *alinhamento legal* – concentra-se em três direções de pesquisa: (1) projetar sistemas de IA para cumprir o conteúdo das regras jurídicas desenvolvidas por meio de instituições e processos legítimos, (2) adaptar métodos da interpretação jurídica para orientar como os sistemas de IA raciocinam e tomam decisões, e (3) aproveitar conceitos jurídicos como um modelo estrutural para enfrentar os desafios de confiabilidade, confiança e cooperação em sistemas de IA. Essas direções de pesquisa apresentam novas questões conceituais, empíricas e institucionais, que incluem examinar o conjunto específico de leis que determinados sistemas de IA devem seguir, criar avaliações para verificar sua conformidade legal em contextos do mundo real e desenvolver estruturas de governança para apoiar a implementação prática do alinhamento legal. Enfrentar essas questões requer expertise em direito, ciência da computação e outras disciplinas, oferecendo a essas comunidades a oportunidade de colaborar no projeto de uma IA para o bem.
English
Alignment of artificial intelligence (AI) encompasses the normative problem of specifying how AI systems should act and the technical problem of ensuring AI systems comply with those specifications. To date, AI alignment has generally overlooked an important source of knowledge and practice for grappling with these problems: law. In this paper, we aim to fill this gap by exploring how legal rules, principles, and methods can be leveraged to address problems of alignment and inform the design of AI systems that operate safely and ethically. This emerging field -- legal alignment -- focuses on three research directions: (1) designing AI systems to comply with the content of legal rules developed through legitimate institutions and processes, (2) adapting methods from legal interpretation to guide how AI systems reason and make decisions, and (3) harnessing legal concepts as a structural blueprint for confronting challenges of reliability, trust, and cooperation in AI systems. These research directions present new conceptual, empirical, and institutional questions, which include examining the specific set of laws that particular AI systems should follow, creating evaluations to assess their legal compliance in real-world settings, and developing governance frameworks to support the implementation of legal alignment in practice. Tackling these questions requires expertise across law, computer science, and other disciplines, offering these communities the opportunity to collaborate in designing AI for the better.
PDF43February 7, 2026