Scienza del Comportamento degli Agenti IA
AI Agent Behavioral Science
June 4, 2025
Autori: Lin Chen, Yunke Zhang, Jie Feng, Haoye Chai, Honglin Zhang, Bingbing Fan, Yibo Ma, Shiyuan Zhang, Nian Li, Tianhui Liu, Nicholas Sukiennik, Keyu Zhao, Yu Li, Ziyi Liu, Fengli Xu, Yong Li
cs.AI
Abstract
I recenti progressi nei modelli linguistici di grandi dimensioni (LLM) hanno permesso lo sviluppo di agenti AI che mostrano comportamenti sempre più simili a quelli umani, inclusi pianificazione, adattamento e dinamiche sociali in scenari diversi, interattivi e aperti. Questi comportamenti non sono esclusivamente il prodotto delle architetture interne dei modelli sottostanti, ma emergono dalla loro integrazione in sistemi agentici che operano in contesti specifici, dove fattori ambientali, segnali sociali e feedback interattivi modellano il comportamento nel tempo. Questa evoluzione richiede una nuova prospettiva scientifica: la Scienza del Comportamento degli Agenti AI. Piuttosto che concentrarsi solo sui meccanismi interni, questa prospettiva enfatizza l'osservazione sistematica del comportamento, la progettazione di interventi per testare ipotesi e l'interpretazione guidata dalla teoria di come gli agenti AI agiscono, si adattano e interagiscono nel tempo. Sistematizziamo un corpus crescente di ricerche in contesti di interazione individuale, multi-agente e uomo-agente, e dimostriamo ulteriormente come questa prospettiva informi l'AI responsabile trattando equità, sicurezza, interpretabilità, responsabilità e privacy come proprietà comportamentali. Unificando i risultati recenti e delineando direzioni future, posizioniamo la Scienza del Comportamento degli Agenti AI come un complemento necessario agli approcci tradizionali centrati sul modello, fornendo strumenti essenziali per comprendere, valutare e governare il comportamento nel mondo reale di sistemi AI sempre più autonomi.
English
Recent advances in large language models (LLMs) have enabled the development
of AI agents that exhibit increasingly human-like behaviors, including
planning, adaptation, and social dynamics across diverse, interactive, and
open-ended scenarios. These behaviors are not solely the product of the
internal architectures of the underlying models, but emerge from their
integration into agentic systems operating within specific contexts, where
environmental factors, social cues, and interaction feedbacks shape behavior
over time. This evolution necessitates a new scientific perspective: AI Agent
Behavioral Science. Rather than focusing only on internal mechanisms, this
perspective emphasizes the systematic observation of behavior, design of
interventions to test hypotheses, and theory-guided interpretation of how AI
agents act, adapt, and interact over time. We systematize a growing body of
research across individual agent, multi-agent, and human-agent interaction
settings, and further demonstrate how this perspective informs responsible AI
by treating fairness, safety, interpretability, accountability, and privacy as
behavioral properties. By unifying recent findings and laying out future
directions, we position AI Agent Behavioral Science as a necessary complement
to traditional model-centric approaches, providing essential tools for
understanding, evaluating, and governing the real-world behavior of
increasingly autonomous AI systems.