ChatPaper.aiChatPaper

Gedragswetenschap van AI-agenten

AI Agent Behavioral Science

June 4, 2025
Auteurs: Lin Chen, Yunke Zhang, Jie Feng, Haoye Chai, Honglin Zhang, Bingbing Fan, Yibo Ma, Shiyuan Zhang, Nian Li, Tianhui Liu, Nicholas Sukiennik, Keyu Zhao, Yu Li, Ziyi Liu, Fengli Xu, Yong Li
cs.AI

Samenvatting

Recente vooruitgang in grote taalmodelen (LLMs) heeft de ontwikkeling mogelijk gemaakt van AI-agenten die steeds mensachtiger gedrag vertonen, waaronder planning, aanpassing en sociale dynamiek in diverse, interactieve en open scenario's. Dit gedrag is niet uitsluitend het product van de interne architectuur van de onderliggende modellen, maar ontstaat uit hun integratie in agent-systemen die opereren binnen specifieke contexten, waarbij omgevingsfactoren, sociale signalen en interactiefeedback het gedrag in de loop van tijd vormgeven. Deze evolutie vereist een nieuw wetenschappelijk perspectief: AI Agent Behavioral Science. In plaats van zich alleen te richten op interne mechanismen, benadrukt dit perspectief de systematische observatie van gedrag, het ontwerpen van interventies om hypothesen te testen, en de theoriegestuurde interpretatie van hoe AI-agenten handelen, zich aanpassen en interacteren over tijd. We systematiseren een groeiend onderzoeksveld dat individuele agenten, multi-agenten en mens-agent interacties omvat, en laten verder zien hoe dit perspectief verantwoorde AI bevordert door eerlijkheid, veiligheid, interpreteerbaarheid, verantwoordelijkheid en privacy te behandelen als gedragseigenschappen. Door recente bevindingen te verenigen en toekomstige richtingen uit te stippelen, positioneren we AI Agent Behavioral Science als een noodzakelijke aanvulling op traditionele modelgerichte benaderingen, en bieden we essentiële tools voor het begrijpen, evalueren en besturen van het real-world gedrag van steeds autonomer wordende AI-systemen.
English
Recent advances in large language models (LLMs) have enabled the development of AI agents that exhibit increasingly human-like behaviors, including planning, adaptation, and social dynamics across diverse, interactive, and open-ended scenarios. These behaviors are not solely the product of the internal architectures of the underlying models, but emerge from their integration into agentic systems operating within specific contexts, where environmental factors, social cues, and interaction feedbacks shape behavior over time. This evolution necessitates a new scientific perspective: AI Agent Behavioral Science. Rather than focusing only on internal mechanisms, this perspective emphasizes the systematic observation of behavior, design of interventions to test hypotheses, and theory-guided interpretation of how AI agents act, adapt, and interact over time. We systematize a growing body of research across individual agent, multi-agent, and human-agent interaction settings, and further demonstrate how this perspective informs responsible AI by treating fairness, safety, interpretability, accountability, and privacy as behavioral properties. By unifying recent findings and laying out future directions, we position AI Agent Behavioral Science as a necessary complement to traditional model-centric approaches, providing essential tools for understanding, evaluating, and governing the real-world behavior of increasingly autonomous AI systems.
PDF102June 17, 2025