ChatPaper.aiChatPaper

SocialVeil: Sondeo de la Inteligencia Social de Agentes Lingüísticos bajo Barreras de Comunicación

SocialVeil: Probing Social Intelligence of Language Agents under Communication Barriers

February 4, 2026
Autores: Keyang Xuan, Pengda Wang, Chongrui Ye, Haofei Yu, Tal August, Jiaxuan You
cs.AI

Resumen

Los modelos de lenguaje grandes (LLMs) son evaluados cada vez más en entornos interactivos para probar su inteligencia social. Sin embargo, los puntos de referencia existentes a menudo asumen una comunicación idealizada entre agentes, lo que limita nuestra capacidad para diagnosticar si los LLMs pueden mantener y reparar interacciones en entornos más realistas e imperfectos. Para cerrar esta brecha, presentamos SocialVeil, un entorno de aprendizaje social que puede simular la interacción social bajo barreras de comunicación inducidas por diferencias cognitivas. Basado en una revisión sistemática de la literatura sobre los desafíos de comunicación en la interacción humana, SocialVeil introduce tres tipos representativos de dicha interrupción: vaguedad semántica, desajuste sociocultural e interferencia emocional. También introducimos dos métricas de evaluación conscientes de las barreras, confusión no resuelta y entendimiento mutuo, para evaluar la calidad de la interacción bajo comunicación deteriorada. Los experimentos en 720 escenarios y con cuatro LLMs de vanguardia muestran que las barreras perjudican consistentemente el rendimiento, reduciendo el entendimiento mutuo en más de un 45% en promedio y elevando la confusión en casi un 50%. Las evaluaciones humanas validan la fidelidad de estas barreras simuladas (CCI≈0.78, Pearson r≈0.80). Además, demostramos que las estrategias de adaptación (Instrucción de Reparación y Aprendizaje Interactivo) solo tienen un efecto modesto, lejano al rendimiento sin barreras. Este trabajo da un paso hacia acercar los entornos de interacción social a la comunicación del mundo real, abriendo oportunidades para explorar la inteligencia social de los agentes LLM.
English
Large language models (LLMs) are increasingly evaluated in interactive environments to test their social intelligence. However, existing benchmarks often assume idealized communication between agents, limiting our ability to diagnose whether LLMs can maintain and repair interactions in more realistic, imperfect settings. To close this gap, we present SocialVeil, a social learning environment that can simulate social interaction under cognitive-difference-induced communication barriers. Grounded in a systematic literature review of communication challenges in human interaction, SocialVeil introduces three representative types of such disruption, semantic vagueness, sociocultural mismatch, and emotional interference. We also introduce two barrier-aware evaluation metrics, unresolved confusion and mutual understanding, to evaluate interaction quality under impaired communication. Experiments across 720 scenarios and four frontier LLMs show that barriers consistently impair performance, with mutual understanding reduced by over 45\% on average, and confusion elevated by nearly 50\%. Human evaluations validate the fidelity of these simulated barriers (ICCapprox0.78, Pearson rapprox0.80). We further demonstrate that adaptation strategies (Repair Instruction and Interactive learning) only have a modest effect far from barrier-free performance. This work takes a step toward bringing social interaction environments closer to real-world communication, opening opportunities for exploring the social intelligence of LLM agents.
PDF146February 7, 2026