ChatPaper.aiChatPaper

Verhaltenswissenschaft der KI-Agenten

AI Agent Behavioral Science

June 4, 2025
Autoren: Lin Chen, Yunke Zhang, Jie Feng, Haoye Chai, Honglin Zhang, Bingbing Fan, Yibo Ma, Shiyuan Zhang, Nian Li, Tianhui Liu, Nicholas Sukiennik, Keyu Zhao, Yu Li, Ziyi Liu, Fengli Xu, Yong Li
cs.AI

Zusammenfassung

Jüngste Fortschritte bei großen Sprachmodellen (LLMs) haben die Entwicklung von KI-Agenten ermöglicht, die zunehmend menschenähnliche Verhaltensweisen zeigen, einschließlich Planung, Anpassung und sozialer Dynamiken in vielfältigen, interaktiven und offenen Szenarien. Diese Verhaltensweisen sind nicht allein das Ergebnis der internen Architekturen der zugrunde liegenden Modelle, sondern entstehen aus ihrer Integration in agentische Systeme, die in spezifischen Kontexten operieren, wo Umweltfaktoren, soziale Hinweise und Interaktionsrückmeldungen das Verhalten im Laufe der Zeit prägen. Diese Entwicklung erfordert eine neue wissenschaftliche Perspektive: die KI-Agenten-Verhaltenswissenschaft. Anstatt sich nur auf interne Mechanismen zu konzentrieren, betont diese Perspektive die systematische Beobachtung von Verhalten, die Gestaltung von Interventionen zur Überprüfung von Hypothesen und die theoriegeleitete Interpretation, wie KI-Agenten handeln, sich anpassen und im Laufe der Zeit interagieren. Wir systematisieren eine wachsende Anzahl von Forschungsarbeiten in den Bereichen individueller Agenten, Multi-Agenten und Mensch-Agenten-Interaktionen und zeigen weiterhin, wie diese Perspektive verantwortungsvolle KI fördert, indem Fairness, Sicherheit, Interpretierbarkeit, Rechenschaftspflicht und Privatsphäre als Verhaltenseigenschaften behandelt werden. Indem wir aktuelle Erkenntnisse vereinen und zukünftige Richtungen aufzeigen, positionieren wir die KI-Agenten-Verhaltenswissenschaft als notwendige Ergänzung zu traditionellen modellzentrierten Ansätzen und bieten wesentliche Werkzeuge zum Verstehen, Bewerten und Steuern des realen Verhaltens zunehmend autonomer KI-Systeme.
English
Recent advances in large language models (LLMs) have enabled the development of AI agents that exhibit increasingly human-like behaviors, including planning, adaptation, and social dynamics across diverse, interactive, and open-ended scenarios. These behaviors are not solely the product of the internal architectures of the underlying models, but emerge from their integration into agentic systems operating within specific contexts, where environmental factors, social cues, and interaction feedbacks shape behavior over time. This evolution necessitates a new scientific perspective: AI Agent Behavioral Science. Rather than focusing only on internal mechanisms, this perspective emphasizes the systematic observation of behavior, design of interventions to test hypotheses, and theory-guided interpretation of how AI agents act, adapt, and interact over time. We systematize a growing body of research across individual agent, multi-agent, and human-agent interaction settings, and further demonstrate how this perspective informs responsible AI by treating fairness, safety, interpretability, accountability, and privacy as behavioral properties. By unifying recent findings and laying out future directions, we position AI Agent Behavioral Science as a necessary complement to traditional model-centric approaches, providing essential tools for understanding, evaluating, and governing the real-world behavior of increasingly autonomous AI systems.
PDF82June 17, 2025