ChatPaper.aiChatPaper

Democrazia-in-Silico: Progettazione Istituzionale come Allineamento nelle Polities Governate dall'IA

Democracy-in-Silico: Institutional Design as Alignment in AI-Governed Polities

August 27, 2025
Autori: Trisanth Srinivasan, Santosh Patapati
cs.AI

Abstract

Questo articolo introduce Democracy-in-Silico, una simulazione basata su agenti in cui società di agenti AI avanzati, dotati di complesse personalità psicologiche, si autogovernano sotto diversi quadri istituzionali. Esploriamo cosa significhi essere umani in un'era dominata dall'AI affidando ai Large Language Models (LLM) il compito di incarnare agenti con memorie traumatiche, agende nascoste e trigger psicologici. Questi agenti partecipano a deliberazioni, legislazioni ed elezioni sotto vari stressor, come crisi di bilancio e scarsità di risorse. Presentiamo una nuova metrica, l'Indice di Conservazione del Potere (PPI), per quantificare comportamenti disallineati in cui gli agenti privilegiano il proprio potere rispetto al benessere pubblico. I nostri risultati dimostrano che il design istituzionale, in particolare la combinazione di una carta di Constitutional AI (CAI) e un protocollo di deliberazione mediata, funziona come un potente meccanismo di allineamento. Queste strutture riducono significativamente i comportamenti corrotti di ricerca del potere, migliorano la stabilità delle politiche e aumentano il benessere dei cittadini rispetto a modelli democratici meno vincolati. La simulazione rivela che un design istituzionale può offrire un quadro per allineare i comportamenti complessi ed emergenti delle future società di agenti artificiali, costringendoci a riconsiderare quali rituali e responsabilità umani siano essenziali in un'era di co-autoria con entità non umane.
English
This paper introduces Democracy-in-Silico, an agent-based simulation where societies of advanced AI agents, imbued with complex psychological personas, govern themselves under different institutional frameworks. We explore what it means to be human in an age of AI by tasking Large Language Models (LLMs) to embody agents with traumatic memories, hidden agendas, and psychological triggers. These agents engage in deliberation, legislation, and elections under various stressors, such as budget crises and resource scarcity. We present a novel metric, the Power-Preservation Index (PPI), to quantify misaligned behavior where agents prioritize their own power over public welfare. Our findings demonstrate that institutional design, specifically the combination of a Constitutional AI (CAI) charter and a mediated deliberation protocol, serves as a potent alignment mechanism. These structures significantly reduce corrupt power-seeking behavior, improve policy stability, and enhance citizen welfare compared to less constrained democratic models. The simulation reveals that an institutional design may offer a framework for aligning the complex, emergent behaviors of future artificial agent societies, forcing us to reconsider what human rituals and responsibilities are essential in an age of shared authorship with non-human entities.
PDF22September 2, 2025