ChatPaper.aiChatPaper

Incomprensioni Fondate nel Dialogo Asimmetrico: Uno Schema di Annotazione Prospettivista per MapTask

Grounded Misunderstandings in Asymmetric Dialogue: A Perspectivist Annotation Scheme for MapTask

November 5, 2025
Autori: Nan Li, Albert Gatt, Massimo Poesio
cs.AI

Abstract

Il dialogo collaborativo si basa sulla capacità dei partecipanti di stabilire progressivamente un terreno comune, eppure in contesti asimmetrici essi possono credere di essere d'accordo mentre si riferiscono a entità diverse. Introduciamo uno schema di annotazione prospettico per il corpus HCRC MapTask (Anderson et al., 1991) che cattura separatamente le interpretazioni radicate nel parlante e nell'ascoltatore per ogni espressione referenziale, permettendoci di tracciare come la comprensione emerga, diverga e si ripari nel tempo. Utilizzando una pipeline di annotazione basata su LLM e vincolata dallo schema, otteniamo 13k espressioni referenziale annotate con stime di affidabilità e analizziamo gli stati di comprensione risultanti. I risultati mostrano che i fraintendimenti completi sono rari una volta unificate le varianti lessicali, ma le discrepanze di molteplicità inducono sistematicamente divergenze, rivelando come un apparente grounding possa mascherare un disallineamento referenziale. Il nostro framework fornisce sia una risorsa che una lente analitica per studiare i fraintendimenti radicati e per valutare la capacità dei (V)LLM di modellare il grounding dipendente dalla prospettiva nel dialogo collaborativo.
English
Collaborative dialogue relies on participants incrementally establishing common ground, yet in asymmetric settings they may believe they agree while referring to different entities. We introduce a perspectivist annotation scheme for the HCRC MapTask corpus (Anderson et al., 1991) that separately captures speaker and addressee grounded interpretations for each reference expression, enabling us to trace how understanding emerges, diverges, and repairs over time. Using a scheme-constrained LLM annotation pipeline, we obtain 13k annotated reference expressions with reliability estimates and analyze the resulting understanding states. The results show that full misunderstandings are rare once lexical variants are unified, but multiplicity discrepancies systematically induce divergences, revealing how apparent grounding can mask referential misalignment. Our framework provides both a resource and an analytic lens for studying grounded misunderstanding and for evaluating (V)LLMs' capacity to model perspective-dependent grounding in collaborative dialogue.
PDF32December 1, 2025