SocialVeil: Untersuchung der sozialen Intelligenz von Sprachagenten unter Kommunikationsbarrieren
SocialVeil: Probing Social Intelligence of Language Agents under Communication Barriers
February 4, 2026
papers.authors: Keyang Xuan, Pengda Wang, Chongrui Ye, Haofei Yu, Tal August, Jiaxuan You
cs.AI
papers.abstract
Große Sprachmodelle (LLMs) werden zunehmend in interaktiven Umgebungen evaluiert, um ihre soziale Intelligenz zu testen. Bestehende Benchmarks gehen jedoch oft von einer idealisierten Kommunikation zwischen Agenten aus, was unsere Fähigkeit einschränkt, zu diagnostizieren, ob LLMs Interaktionen in realistischeren, unvollkommenen Settings aufrechterhalten und reparieren können. Um diese Lücke zu schließen, stellen wir SocialVeil vor, eine soziale Lernumgebung, die soziale Interaktion unter durch kognitive Unterschiede verursachten Kommunikationsbarrieren simulieren kann. Basierend auf einer systematischen Literaturrecherche zu Kommunikationsherausforderungen in der menschlichen Interaktion führt SocialVeil drei repräsentative Typen solcher Störungen ein: semantische Unschärfe, soziokulturelle Diskrepanz und emotionale Interferenz. Wir führen zudem zwei barrierenbewusste Evaluationsmetriken ein – ungelöste Verwirrung und gegenseitiges Verständnis –, um die Interaktionsqualität bei beeinträchtigter Kommunikation zu bewerten. Experimente über 720 Szenarien und vier führende LLMs zeigen, dass Barrieren die Leistung durchgängig beeinträchtigen, wobei das gegenseitige Verständnis im Durchschnitt um über 45 % sinkt und die Verwirrung um fast 50 % ansteigt. Humanevaluationen validieren die Authentizität dieser simulierten Barrieren (ICC≈0,78, Pearson r≈0,80). Wir zeigen weiter, dass Anpassungsstrategien (Reparaturanweisung und interaktives Lernen) nur einen begrenzten Effekt haben, der weit von der leistung ohne Barrieren entfernt liegt. Diese Arbeit macht einen Schritt dahin, soziale Interaktionsumgebungen näher an die reale Kommunikation heranzuführen, und eröffnet Möglichkeiten zur Erforschung der sozialen Intelligenz von LLM-Agenten.
English
Large language models (LLMs) are increasingly evaluated in interactive environments to test their social intelligence. However, existing benchmarks often assume idealized communication between agents, limiting our ability to diagnose whether LLMs can maintain and repair interactions in more realistic, imperfect settings. To close this gap, we present SocialVeil, a social learning environment that can simulate social interaction under cognitive-difference-induced communication barriers. Grounded in a systematic literature review of communication challenges in human interaction, SocialVeil introduces three representative types of such disruption, semantic vagueness, sociocultural mismatch, and emotional interference. We also introduce two barrier-aware evaluation metrics, unresolved confusion and mutual understanding, to evaluate interaction quality under impaired communication. Experiments across 720 scenarios and four frontier LLMs show that barriers consistently impair performance, with mutual understanding reduced by over 45\% on average, and confusion elevated by nearly 50\%. Human evaluations validate the fidelity of these simulated barriers (ICCapprox0.78, Pearson rapprox0.80). We further demonstrate that adaptation strategies (Repair Instruction and Interactive learning) only have a modest effect far from barrier-free performance. This work takes a step toward bringing social interaction environments closer to real-world communication, opening opportunities for exploring the social intelligence of LLM agents.