Domare l'Asimmetria Attore-Osservatore negli Agenti tramite Allineamento Dialettico
Taming Actor-Observer Asymmetry in Agents via Dialectical Alignment
April 21, 2026
Autori: Bobo Li, Rui Wu, Zibo Ji, Meishan Zhang, Hao Fei, Min Zhang, Mong-Li Lee, Wynne Hsu
cs.AI
Abstract
I modelli linguistici di grandi dimensioni (LLM) hanno rapidamente evoluto da generatori di testo statici a sistemi dinamici in grado di eseguire flussi di lavoro autonomi complessi. Per aumentare l'affidabilità, si adottano sempre più spesso framework multi-agente che assegnano ruoli specializzati per consentire l'autoriflessione e la verifica reciproca. Sebbene tale suddivisione in ruoli sfrutti efficacemente la conoscenza di esperti di dominio, abbiamo riscontrato che induce simultaneamente un bias cognitivo simile a quello umano noto come Asimmetria Attore-Osservatore (AOA). Nello specifico, un agente che agisce come attore (durante l'autoriflessione) tende ad attribuire i fallimenti a fattori esterni, mentre un osservatore (durante la verifica reciproca) attribuisce gli stessi errori a colpe interne. Quantifichiamo questo fenomeno utilizzando il nostro nuovo Benchmark dei Fallimenti Ambiguì, che rivela che il semplice scambio di prospettive innesca l'effetto AOA in oltre il 20% dei casi per la maggior parte dei modelli. Per domare questo bias, introduciamo ReTAS (Ragionamento tramite Tesi-Antitesi-Sintesi), un modello addestrato tramite allineamento dialettico per imporre un ragionamento invariante rispetto alla prospettiva. Integrando una catena di pensiero dialettica con l'Ottimizzazione della Politica Relativa di Gruppo, ReTAS guida gli agenti a sintetizzare punti di vista conflittuali in un consenso oggettivo. Gli esperimenti dimostrano che ReTAS mitiga efficacemente l'inconsistenza nell'attribuzione e migliora significativamente i tassi di risoluzione dei guasti in scenari ambigui.
English
Large Language Model agents have rapidly evolved from static text generators into dynamic systems capable of executing complex autonomous workflows. To enhance reliability, multi-agent frameworks assigning specialized roles are increasingly adopted to enable self-reflection and mutual auditing. While such role-playing effectively leverages domain expert knowledge, we find it simultaneously induces a human-like cognitive bias known as Actor-Observer Asymmetry (AOA). Specifically, an agent acting as an actor (during self-reflection) tends to attribute failures to external factors, whereas an observer (during mutual auditing) attributes the same errors to internal faults. We quantify this using our new Ambiguous Failure Benchmark, which reveals that simply swapping perspectives triggers the AOA effect in over 20% of cases for most models. To tame this bias, we introduce ReTAS (Reasoning via Thesis-Antithesis-Synthesis), a model trained through dialectical alignment to enforce perspective-invariant reasoning. By integrating dialectical chain-of-thought with Group Relative Policy Optimization, ReTAS guides agents to synthesize conflicting viewpoints into an objective consensus. Experiments demonstrate that ReTAS effectively mitigates attribution inconsistency and significantly improves fault resolution rates in ambiguous scenarios.