Allineamento Legale per un'IA Sicura ed Etica
Legal Alignment for Safe and Ethical AI
January 7, 2026
Autori: Noam Kolt, Nicholas Caputo, Jack Boeglin, Cullen O'Keefe, Rishi Bommasani, Stephen Casper, Mariano-Florentino Cuéllar, Noah Feldman, Iason Gabriel, Gillian K. Hadfield, Lewis Hammond, Peter Henderson, Atoosa Kasirzadeh, Seth Lazar, Anka Reuel, Kevin L. Wei, Jonathan Zittrain
cs.AI
Abstract
L'allineamento dell'intelligenza artificiale (IA) comprende il problema normativo di specificare come i sistemi di IA dovrebbero agire e il problema tecnico di garantire che tali sistemi rispettino tali specifiche. Fino ad oggi, l'allineamento dell'IA ha generalmente trascurato un'importante fonte di conoscenza e pratica per affrontare questi problemi: il diritto. In questo articolo, intendiamo colmare questa lacuna esplorando come regole, principi e metodi giuridici possano essere sfruttati per affrontare i problemi di allineamento e informare la progettazione di sistemi di IA che operino in modo sicuro ed etico. Questo campo emergente – l’*allineamento giuridico* – si concentra su tre direzioni di ricerca: (1) progettare sistemi di IA in modo che rispettino il contenuto delle norme giuridiche sviluppate attraverso istituzioni e processi legittimi, (2) adattare i metodi dell'interpretazione giuridica per guidare il ragionamento e il processo decisionale dei sistemi di IA, e (3) utilizzare concetti giuridici come modello strutturale per affrontare le sfide dell'affidabilità, della fiducia e della cooperazione nei sistemi di IA. Queste direzioni di ricerca pongono nuovi quesiti concettuali, empirici e istituzionali, che includono l'identificazione del specifico corpus normativo che determinati sistemi di IA dovrebbero seguire, la creazione di valutazioni per verificarne la conformità giuridica in contesti reali e lo sviluppo di quadri di governance a supporto dell'attuazione pratica dell'allineamento giuridico. Affrontare queste questioni richiede competenze trasversali in ambito giuridico, informatico e di altre discipline, offrendo a queste comunità l'opportunità di collaborare nella progettazione di un'IA a beneficio dell'umanità.
English
Alignment of artificial intelligence (AI) encompasses the normative problem of specifying how AI systems should act and the technical problem of ensuring AI systems comply with those specifications. To date, AI alignment has generally overlooked an important source of knowledge and practice for grappling with these problems: law. In this paper, we aim to fill this gap by exploring how legal rules, principles, and methods can be leveraged to address problems of alignment and inform the design of AI systems that operate safely and ethically. This emerging field -- legal alignment -- focuses on three research directions: (1) designing AI systems to comply with the content of legal rules developed through legitimate institutions and processes, (2) adapting methods from legal interpretation to guide how AI systems reason and make decisions, and (3) harnessing legal concepts as a structural blueprint for confronting challenges of reliability, trust, and cooperation in AI systems. These research directions present new conceptual, empirical, and institutional questions, which include examining the specific set of laws that particular AI systems should follow, creating evaluations to assess their legal compliance in real-world settings, and developing governance frameworks to support the implementation of legal alignment in practice. Tackling these questions requires expertise across law, computer science, and other disciplines, offering these communities the opportunity to collaborate in designing AI for the better.