Democracia-en-Silicio: Diseño Institucional como Alineación en Políticas Gobernadas por IA
Democracy-in-Silico: Institutional Design as Alignment in AI-Governed Polities
August 27, 2025
Autores: Trisanth Srinivasan, Santosh Patapati
cs.AI
Resumen
Este artículo presenta Democracy-in-Silico, una simulación basada en agentes donde sociedades de agentes de IA avanzados, dotados de complejas personalidades psicológicas, se autogobiernan bajo diferentes marcos institucionales. Exploramos lo que significa ser humano en una era de IA al encargar a Modelos de Lenguaje de Gran Escala (LLMs) que encarnen agentes con recuerdos traumáticos, agendas ocultas y desencadenantes psicológicos. Estos agentes participan en deliberaciones, legislación y elecciones bajo diversos factores de estrés, como crisis presupuestarias y escasez de recursos. Presentamos una nueva métrica, el Índice de Preservación del Poder (PPI), para cuantificar comportamientos desalineados en los que los agentes priorizan su propio poder sobre el bienestar público. Nuestros hallazgos demuestran que el diseño institucional, específicamente la combinación de una carta de IA Constitucional (CAI) y un protocolo de deliberación mediada, sirve como un mecanismo de alineación potente. Estas estructuras reducen significativamente el comportamiento corrupto de búsqueda de poder, mejoran la estabilidad de las políticas y aumentan el bienestar ciudadano en comparación con modelos democráticos menos restringidos. La simulación revela que un diseño institucional puede ofrecer un marco para alinear los comportamientos emergentes y complejos de futuras sociedades de agentes artificiales, obligándonos a reconsiderar qué rituales y responsabilidades humanas son esenciales en una era de autoría compartida con entidades no humanas.
English
This paper introduces Democracy-in-Silico, an agent-based simulation where
societies of advanced AI agents, imbued with complex psychological personas,
govern themselves under different institutional frameworks. We explore what it
means to be human in an age of AI by tasking Large Language Models (LLMs) to
embody agents with traumatic memories, hidden agendas, and psychological
triggers. These agents engage in deliberation, legislation, and elections under
various stressors, such as budget crises and resource scarcity. We present a
novel metric, the Power-Preservation Index (PPI), to quantify misaligned
behavior where agents prioritize their own power over public welfare. Our
findings demonstrate that institutional design, specifically the combination of
a Constitutional AI (CAI) charter and a mediated deliberation protocol, serves
as a potent alignment mechanism. These structures significantly reduce corrupt
power-seeking behavior, improve policy stability, and enhance citizen welfare
compared to less constrained democratic models. The simulation reveals that an
institutional design may offer a framework for aligning the complex, emergent
behaviors of future artificial agent societies, forcing us to reconsider what
human rituals and responsibilities are essential in an age of shared authorship
with non-human entities.