ChatPaper.aiChatPaper

Science comportementale des agents d'IA

AI Agent Behavioral Science

June 4, 2025
Auteurs: Lin Chen, Yunke Zhang, Jie Feng, Haoye Chai, Honglin Zhang, Bingbing Fan, Yibo Ma, Shiyuan Zhang, Nian Li, Tianhui Liu, Nicholas Sukiennik, Keyu Zhao, Yu Li, Ziyi Liu, Fengli Xu, Yong Li
cs.AI

Résumé

Les récentes avancées dans les modèles de langage de grande envergure (LLMs) ont permis le développement d’agents d’IA qui manifestent des comportements de plus en plus proches de ceux des humains, incluant la planification, l’adaptation et les dynamiques sociales dans des scénarios divers, interactifs et ouverts. Ces comportements ne sont pas uniquement le produit des architectures internes des modèles sous-jacents, mais émergent de leur intégration dans des systèmes agentiques opérant dans des contextes spécifiques, où les facteurs environnementaux, les indices sociaux et les retours d’interaction façonnent le comportement au fil du temps. Cette évolution nécessite une nouvelle perspective scientifique : la science comportementale des agents d’IA. Plutôt que de se concentrer uniquement sur les mécanismes internes, cette perspective met l’accent sur l’observation systématique du comportement, la conception d’interventions pour tester des hypothèses, et l’interprétation guidée par la théorie de la manière dont les agents d’IA agissent, s’adaptent et interagissent au fil du temps. Nous systématisons un corpus croissant de recherches portant sur les interactions individuelles entre agents, multi-agents et humains-agents, et démontrons en outre comment cette perspective éclaire l’IA responsable en traitant l’équité, la sécurité, l’interprétabilité, la responsabilité et la confidentialité comme des propriétés comportementales. En unifiant les découvertes récentes et en traçant des orientations futures, nous positionnons la science comportementale des agents d’IA comme un complément nécessaire aux approches traditionnelles centrées sur les modèles, fournissant des outils essentiels pour comprendre, évaluer et gouverner le comportement dans le monde réel des systèmes d’IA de plus en plus autonomes.
English
Recent advances in large language models (LLMs) have enabled the development of AI agents that exhibit increasingly human-like behaviors, including planning, adaptation, and social dynamics across diverse, interactive, and open-ended scenarios. These behaviors are not solely the product of the internal architectures of the underlying models, but emerge from their integration into agentic systems operating within specific contexts, where environmental factors, social cues, and interaction feedbacks shape behavior over time. This evolution necessitates a new scientific perspective: AI Agent Behavioral Science. Rather than focusing only on internal mechanisms, this perspective emphasizes the systematic observation of behavior, design of interventions to test hypotheses, and theory-guided interpretation of how AI agents act, adapt, and interact over time. We systematize a growing body of research across individual agent, multi-agent, and human-agent interaction settings, and further demonstrate how this perspective informs responsible AI by treating fairness, safety, interpretability, accountability, and privacy as behavioral properties. By unifying recent findings and laying out future directions, we position AI Agent Behavioral Science as a necessary complement to traditional model-centric approaches, providing essential tools for understanding, evaluating, and governing the real-world behavior of increasingly autonomous AI systems.
PDF82June 17, 2025