ChatPaper.aiChatPaper

Democracia-in-Silico: Design Institucional como Alinhamento em Políticas Governadas por IA

Democracy-in-Silico: Institutional Design as Alignment in AI-Governed Polities

August 27, 2025
Autores: Trisanth Srinivasan, Santosh Patapati
cs.AI

Resumo

Este artigo apresenta o Democracy-in-Silico, uma simulação baseada em agentes onde sociedades de agentes de IA avançados, dotados de personalidades psicológicas complexas, governam-se sob diferentes estruturas institucionais. Exploramos o que significa ser humano em uma era de IA ao atribuir a Modelos de Linguagem de Grande Escala (LLMs) a tarefa de incorporar agentes com memórias traumáticas, agendas ocultas e gatilhos psicológicos. Esses agentes participam de deliberações, legislações e eleições sob vários estressores, como crises orçamentárias e escassez de recursos. Apresentamos uma nova métrica, o Índice de Preservação de Poder (PPI), para quantificar comportamentos desalinhados em que os agentes priorizam seu próprio poder em detrimento do bem-estar público. Nossos resultados demonstram que o design institucional, especificamente a combinação de uma carta de IA Constitucional (CAI) e um protocolo de deliberação mediada, serve como um mecanismo poderoso de alinhamento. Essas estruturas reduzem significativamente comportamentos corruptos de busca de poder, melhoram a estabilidade das políticas e aumentam o bem-estar dos cidadãos em comparação com modelos democráticos menos restritos. A simulação revela que um design institucional pode oferecer uma estrutura para alinhar os comportamentos complexos e emergentes de futuras sociedades de agentes artificiais, levando-nos a reconsiderar quais rituais e responsabilidades humanas são essenciais em uma era de autoria compartilhada com entidades não humanas.
English
This paper introduces Democracy-in-Silico, an agent-based simulation where societies of advanced AI agents, imbued with complex psychological personas, govern themselves under different institutional frameworks. We explore what it means to be human in an age of AI by tasking Large Language Models (LLMs) to embody agents with traumatic memories, hidden agendas, and psychological triggers. These agents engage in deliberation, legislation, and elections under various stressors, such as budget crises and resource scarcity. We present a novel metric, the Power-Preservation Index (PPI), to quantify misaligned behavior where agents prioritize their own power over public welfare. Our findings demonstrate that institutional design, specifically the combination of a Constitutional AI (CAI) charter and a mediated deliberation protocol, serves as a potent alignment mechanism. These structures significantly reduce corrupt power-seeking behavior, improve policy stability, and enhance citizen welfare compared to less constrained democratic models. The simulation reveals that an institutional design may offer a framework for aligning the complex, emergent behaviors of future artificial agent societies, forcing us to reconsider what human rituals and responsibilities are essential in an age of shared authorship with non-human entities.
PDF22September 2, 2025