Domando a Assimetria Ator-Observador em Agentes por meio do Alinhamento Dialético
Taming Actor-Observer Asymmetry in Agents via Dialectical Alignment
April 21, 2026
Autores: Bobo Li, Rui Wu, Zibo Ji, Meishan Zhang, Hao Fei, Min Zhang, Mong-Li Lee, Wynne Hsu
cs.AI
Resumo
Os agentes de Modelos de Linguagem de Grande Porte evoluíram rapidamente de geradores de texto estáticos para sistemas dinâmicos capazes de executar fluxos de trabalho autónomos complexos. Para aumentar a confiabilidade, são cada vez mais adotadas arquiteturas multiagente que atribuem funções especializadas para permitir a autorreflexão e a auditoria mútua. Embora esse role-playing aproveite eficazmente o conhecimento especializado de domínio, verificamos que ele simultaneamente induz um viés cognitivo semelhante ao humano, conhecido como Assimetria Ator-Observador (AAO). Especificamente, um agente a atuar como ator (durante a autorreflexão) tende a atribuir falhas a fatores externos, enquanto um observador (durante a auditoria mútua) atribui os mesmos erros a falhas internas. Quantificamos este fenómeno usando o nosso novo Ambiguous Failure Benchmark, que revela que a simples troca de perspetivas desencadeia o efeito AAO em mais de 20% dos casos para a maioria dos modelos. Para domar este viés, introduzimos o ReTAS (Raciocínio via Tese-Antítese-Síntese), um modelo treinado através de alinhamento dialético para impor um raciocínio invariante à perspetiva. Ao integrar uma cadeia de pensamento dialética com a Otimização de Política Relativa de Grupo, o ReTAS orienta os agentes a sintetizar pontos de vista conflituantes num consenso objetivo. Experiências demonstram que o ReTAS mitiga eficazmente a inconsistência na atribuição de causas e melhora significativamente as taxas de resolução de falhas em cenários ambíguos.
English
Large Language Model agents have rapidly evolved from static text generators into dynamic systems capable of executing complex autonomous workflows. To enhance reliability, multi-agent frameworks assigning specialized roles are increasingly adopted to enable self-reflection and mutual auditing. While such role-playing effectively leverages domain expert knowledge, we find it simultaneously induces a human-like cognitive bias known as Actor-Observer Asymmetry (AOA). Specifically, an agent acting as an actor (during self-reflection) tends to attribute failures to external factors, whereas an observer (during mutual auditing) attributes the same errors to internal faults. We quantify this using our new Ambiguous Failure Benchmark, which reveals that simply swapping perspectives triggers the AOA effect in over 20% of cases for most models. To tame this bias, we introduce ReTAS (Reasoning via Thesis-Antithesis-Synthesis), a model trained through dialectical alignment to enforce perspective-invariant reasoning. By integrating dialectical chain-of-thought with Group Relative Policy Optimization, ReTAS guides agents to synthesize conflicting viewpoints into an objective consensus. Experiments demonstrate that ReTAS effectively mitigates attribution inconsistency and significantly improves fault resolution rates in ambiguous scenarios.