Ciência do Comportamento de Agentes de IA
AI Agent Behavioral Science
June 4, 2025
Autores: Lin Chen, Yunke Zhang, Jie Feng, Haoye Chai, Honglin Zhang, Bingbing Fan, Yibo Ma, Shiyuan Zhang, Nian Li, Tianhui Liu, Nicholas Sukiennik, Keyu Zhao, Yu Li, Ziyi Liu, Fengli Xu, Yong Li
cs.AI
Resumo
Os recentes avanços em modelos de linguagem de grande escala (LLMs) possibilitaram o desenvolvimento de agentes de IA que exibem comportamentos cada vez mais semelhantes aos humanos, incluindo planejamento, adaptação e dinâmicas sociais em diversos cenários interativos e abertos. Esses comportamentos não são apenas produto das arquiteturas internas dos modelos subjacentes, mas emergem de sua integração em sistemas agentes que operam em contextos específicos, onde fatores ambientais, sinais sociais e feedbacks de interação moldam o comportamento ao longo do tempo. Essa evolução exige uma nova perspectiva científica: a Ciência do Comportamento de Agentes de IA. Em vez de focar apenas nos mecanismos internos, essa perspectiva enfatiza a observação sistemática do comportamento, o design de intervenções para testar hipóteses e a interpretação guiada por teorias de como os agentes de IA agem, se adaptam e interagem ao longo do tempo. Sistematizamos um conjunto crescente de pesquisas em configurações de interação de agente individual, multiagente e humano-agente, e demonstramos ainda como essa perspectiva informa a IA responsável ao tratar justiça, segurança, interpretabilidade, responsabilidade e privacidade como propriedades comportamentais. Ao unificar descobertas recentes e traçar direções futuras, posicionamos a Ciência do Comportamento de Agentes de IA como um complemento necessário às abordagens tradicionais centradas em modelos, fornecendo ferramentas essenciais para compreender, avaliar e governar o comportamento no mundo real de sistemas de IA cada vez mais autônomos.
English
Recent advances in large language models (LLMs) have enabled the development
of AI agents that exhibit increasingly human-like behaviors, including
planning, adaptation, and social dynamics across diverse, interactive, and
open-ended scenarios. These behaviors are not solely the product of the
internal architectures of the underlying models, but emerge from their
integration into agentic systems operating within specific contexts, where
environmental factors, social cues, and interaction feedbacks shape behavior
over time. This evolution necessitates a new scientific perspective: AI Agent
Behavioral Science. Rather than focusing only on internal mechanisms, this
perspective emphasizes the systematic observation of behavior, design of
interventions to test hypotheses, and theory-guided interpretation of how AI
agents act, adapt, and interact over time. We systematize a growing body of
research across individual agent, multi-agent, and human-agent interaction
settings, and further demonstrate how this perspective informs responsible AI
by treating fairness, safety, interpretability, accountability, and privacy as
behavioral properties. By unifying recent findings and laying out future
directions, we position AI Agent Behavioral Science as a necessary complement
to traditional model-centric approaches, providing essential tools for
understanding, evaluating, and governing the real-world behavior of
increasingly autonomous AI systems.