Science comportementale des agents d'IA
AI Agent Behavioral Science
June 4, 2025
Auteurs: Lin Chen, Yunke Zhang, Jie Feng, Haoye Chai, Honglin Zhang, Bingbing Fan, Yibo Ma, Shiyuan Zhang, Nian Li, Tianhui Liu, Nicholas Sukiennik, Keyu Zhao, Yu Li, Ziyi Liu, Fengli Xu, Yong Li
cs.AI
Résumé
Les récentes avancées dans les modèles de langage de grande envergure (LLMs) ont permis le développement d’agents d’IA qui manifestent des comportements de plus en plus proches de ceux des humains, incluant la planification, l’adaptation et les dynamiques sociales dans des scénarios divers, interactifs et ouverts. Ces comportements ne sont pas uniquement le produit des architectures internes des modèles sous-jacents, mais émergent de leur intégration dans des systèmes agentiques opérant dans des contextes spécifiques, où les facteurs environnementaux, les indices sociaux et les retours d’interaction façonnent le comportement au fil du temps. Cette évolution nécessite une nouvelle perspective scientifique : la science comportementale des agents d’IA. Plutôt que de se concentrer uniquement sur les mécanismes internes, cette perspective met l’accent sur l’observation systématique du comportement, la conception d’interventions pour tester des hypothèses, et l’interprétation guidée par la théorie de la manière dont les agents d’IA agissent, s’adaptent et interagissent au fil du temps. Nous systématisons un corpus croissant de recherches portant sur les interactions individuelles entre agents, multi-agents et humains-agents, et démontrons en outre comment cette perspective éclaire l’IA responsable en traitant l’équité, la sécurité, l’interprétabilité, la responsabilité et la confidentialité comme des propriétés comportementales. En unifiant les découvertes récentes et en traçant des orientations futures, nous positionnons la science comportementale des agents d’IA comme un complément nécessaire aux approches traditionnelles centrées sur les modèles, fournissant des outils essentiels pour comprendre, évaluer et gouverner le comportement dans le monde réel des systèmes d’IA de plus en plus autonomes.
English
Recent advances in large language models (LLMs) have enabled the development
of AI agents that exhibit increasingly human-like behaviors, including
planning, adaptation, and social dynamics across diverse, interactive, and
open-ended scenarios. These behaviors are not solely the product of the
internal architectures of the underlying models, but emerge from their
integration into agentic systems operating within specific contexts, where
environmental factors, social cues, and interaction feedbacks shape behavior
over time. This evolution necessitates a new scientific perspective: AI Agent
Behavioral Science. Rather than focusing only on internal mechanisms, this
perspective emphasizes the systematic observation of behavior, design of
interventions to test hypotheses, and theory-guided interpretation of how AI
agents act, adapt, and interact over time. We systematize a growing body of
research across individual agent, multi-agent, and human-agent interaction
settings, and further demonstrate how this perspective informs responsible AI
by treating fairness, safety, interpretability, accountability, and privacy as
behavioral properties. By unifying recent findings and laying out future
directions, we position AI Agent Behavioral Science as a necessary complement
to traditional model-centric approaches, providing essential tools for
understanding, evaluating, and governing the real-world behavior of
increasingly autonomous AI systems.