ChatPaper.aiChatPaper

Democracia-en-Silicio: Diseño Institucional como Alineación en Políticas Gobernadas por IA

Democracy-in-Silico: Institutional Design as Alignment in AI-Governed Polities

August 27, 2025
Autores: Trisanth Srinivasan, Santosh Patapati
cs.AI

Resumen

Este artículo presenta Democracy-in-Silico, una simulación basada en agentes donde sociedades de agentes de IA avanzados, dotados de complejas personalidades psicológicas, se autogobiernan bajo diferentes marcos institucionales. Exploramos lo que significa ser humano en una era de IA al encargar a Modelos de Lenguaje de Gran Escala (LLMs) que encarnen agentes con recuerdos traumáticos, agendas ocultas y desencadenantes psicológicos. Estos agentes participan en deliberaciones, legislación y elecciones bajo diversos factores de estrés, como crisis presupuestarias y escasez de recursos. Presentamos una nueva métrica, el Índice de Preservación del Poder (PPI), para cuantificar comportamientos desalineados en los que los agentes priorizan su propio poder sobre el bienestar público. Nuestros hallazgos demuestran que el diseño institucional, específicamente la combinación de una carta de IA Constitucional (CAI) y un protocolo de deliberación mediada, sirve como un mecanismo de alineación potente. Estas estructuras reducen significativamente el comportamiento corrupto de búsqueda de poder, mejoran la estabilidad de las políticas y aumentan el bienestar ciudadano en comparación con modelos democráticos menos restringidos. La simulación revela que un diseño institucional puede ofrecer un marco para alinear los comportamientos emergentes y complejos de futuras sociedades de agentes artificiales, obligándonos a reconsiderar qué rituales y responsabilidades humanas son esenciales en una era de autoría compartida con entidades no humanas.
English
This paper introduces Democracy-in-Silico, an agent-based simulation where societies of advanced AI agents, imbued with complex psychological personas, govern themselves under different institutional frameworks. We explore what it means to be human in an age of AI by tasking Large Language Models (LLMs) to embody agents with traumatic memories, hidden agendas, and psychological triggers. These agents engage in deliberation, legislation, and elections under various stressors, such as budget crises and resource scarcity. We present a novel metric, the Power-Preservation Index (PPI), to quantify misaligned behavior where agents prioritize their own power over public welfare. Our findings demonstrate that institutional design, specifically the combination of a Constitutional AI (CAI) charter and a mediated deliberation protocol, serves as a potent alignment mechanism. These structures significantly reduce corrupt power-seeking behavior, improve policy stability, and enhance citizen welfare compared to less constrained democratic models. The simulation reveals that an institutional design may offer a framework for aligning the complex, emergent behaviors of future artificial agent societies, forcing us to reconsider what human rituals and responsibilities are essential in an age of shared authorship with non-human entities.
PDF22September 2, 2025