ChatPaper.aiChatPaper

Gegründete Missverständnisse im asymmetrischen Dialog: Ein perspektivistisches Annotationsschema für MapTask

Grounded Misunderstandings in Asymmetric Dialogue: A Perspectivist Annotation Scheme for MapTask

November 5, 2025
papers.authors: Nan Li, Albert Gatt, Massimo Poesio
cs.AI

papers.abstract

Kollaborativer Dialog basiert darauf, dass Teilnehmer schrittweise gemeinsamen Boden (common ground) aufbauen. In asymmetrischen Settings kann es jedoch vorkommen, dass sie sich einig zu sein glauben, obwohl sie auf unterschiedliche Entitäten referieren. Wir stellen ein perspektivistisches Annotationsschema für das HCRC MapTask-Korpus (Anderson et al., 1991) vor, das für jeden Referenzausdruck die geerdeten Interpretationen (grounded interpretations) von Sprecher und Adressat separat erfasst. Dies ermöglicht es uns nachzuzeichnen, wie Verständnis entsteht, abweicht und im Zeitverlauf repariert wird. Mithilfe eines schema-basierten LLM-Annotationspipelines erhalten wir 13.000 annotierte Referenzausdrücke mit Reliabilitätsschätzungen und analysieren die resultierenden Verständniszustände. Die Ergebnisse zeigen, dass vollständige Missverständnisse selten sind, sobald lexikalische Varianten vereinheitlicht wurden, dass jedoch systematisch Diskrepanzen aufgrund von Mehrdeutigkeiten (multiplicity discrepancies) zu Abweichungen führen. Dies offenbart, wie scheinbarer Common Ground referenzielle Fehlausrichtungen maskieren kann. Unser Framework bietet sowohl eine Ressource als auch eine analytische Linse für die Erforschung geerdeter Missverständnisse und für die Evaluation der Fähigkeit von (V)LLMs, perspektivenabhängiges Grounding in kollaborativen Dialogen zu modellieren.
English
Collaborative dialogue relies on participants incrementally establishing common ground, yet in asymmetric settings they may believe they agree while referring to different entities. We introduce a perspectivist annotation scheme for the HCRC MapTask corpus (Anderson et al., 1991) that separately captures speaker and addressee grounded interpretations for each reference expression, enabling us to trace how understanding emerges, diverges, and repairs over time. Using a scheme-constrained LLM annotation pipeline, we obtain 13k annotated reference expressions with reliability estimates and analyze the resulting understanding states. The results show that full misunderstandings are rare once lexical variants are unified, but multiplicity discrepancies systematically induce divergences, revealing how apparent grounding can mask referential misalignment. Our framework provides both a resource and an analytic lens for studying grounded misunderstanding and for evaluating (V)LLMs' capacity to model perspective-dependent grounding in collaborative dialogue.
PDF32December 1, 2025