ChatPaper.aiChatPaper

Ciencia del Comportamiento de Agentes de IA

AI Agent Behavioral Science

June 4, 2025
Autores: Lin Chen, Yunke Zhang, Jie Feng, Haoye Chai, Honglin Zhang, Bingbing Fan, Yibo Ma, Shiyuan Zhang, Nian Li, Tianhui Liu, Nicholas Sukiennik, Keyu Zhao, Yu Li, Ziyi Liu, Fengli Xu, Yong Li
cs.AI

Resumen

Los recientes avances en los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) han permitido el desarrollo de agentes de inteligencia artificial (IA) que exhiben comportamientos cada vez más similares a los humanos, incluyendo la planificación, la adaptación y la dinámica social en escenarios diversos, interactivos y de final abierto. Estos comportamientos no son únicamente el producto de las arquitecturas internas de los modelos subyacentes, sino que emergen de su integración en sistemas agentes que operan en contextos específicos, donde factores ambientales, señales sociales y retroalimentaciones de interacción moldean el comportamiento a lo largo del tiempo. Esta evolución requiere una nueva perspectiva científica: la Ciencia del Comportamiento de Agentes de IA. En lugar de centrarse únicamente en los mecanismos internos, esta perspectiva enfatiza la observación sistemática del comportamiento, el diseño de intervenciones para probar hipótesis y la interpretación guiada por teorías sobre cómo los agentes de IA actúan, se adaptan e interactúan con el tiempo. Sistematizamos un creciente cuerpo de investigación en entornos de interacción de agentes individuales, multiagentes y humano-agente, y además demostramos cómo esta perspectiva informa la IA responsable al tratar la equidad, la seguridad, la interpretabilidad, la rendición de cuentas y la privacidad como propiedades comportamentales. Al unificar hallazgos recientes y trazar direcciones futuras, posicionamos la Ciencia del Comportamiento de Agentes de IA como un complemento necesario a los enfoques tradicionales centrados en modelos, proporcionando herramientas esenciales para comprender, evaluar y gobernar el comportamiento en el mundo real de sistemas de IA cada vez más autónomos.
English
Recent advances in large language models (LLMs) have enabled the development of AI agents that exhibit increasingly human-like behaviors, including planning, adaptation, and social dynamics across diverse, interactive, and open-ended scenarios. These behaviors are not solely the product of the internal architectures of the underlying models, but emerge from their integration into agentic systems operating within specific contexts, where environmental factors, social cues, and interaction feedbacks shape behavior over time. This evolution necessitates a new scientific perspective: AI Agent Behavioral Science. Rather than focusing only on internal mechanisms, this perspective emphasizes the systematic observation of behavior, design of interventions to test hypotheses, and theory-guided interpretation of how AI agents act, adapt, and interact over time. We systematize a growing body of research across individual agent, multi-agent, and human-agent interaction settings, and further demonstrate how this perspective informs responsible AI by treating fairness, safety, interpretability, accountability, and privacy as behavioral properties. By unifying recent findings and laying out future directions, we position AI Agent Behavioral Science as a necessary complement to traditional model-centric approaches, providing essential tools for understanding, evaluating, and governing the real-world behavior of increasingly autonomous AI systems.
PDF92June 17, 2025