Gegründete Missverständnisse im asymmetrischen Dialog: Ein perspektivistisches Annotationsschema für MapTask
Grounded Misunderstandings in Asymmetric Dialogue: A Perspectivist Annotation Scheme for MapTask
November 5, 2025
papers.authors: Nan Li, Albert Gatt, Massimo Poesio
cs.AI
papers.abstract
Kollaborativer Dialog basiert darauf, dass Teilnehmer schrittweise gemeinsamen Boden (common ground) aufbauen. In asymmetrischen Settings kann es jedoch vorkommen, dass sie sich einig zu sein glauben, obwohl sie auf unterschiedliche Entitäten referieren. Wir stellen ein perspektivistisches Annotationsschema für das HCRC MapTask-Korpus (Anderson et al., 1991) vor, das für jeden Referenzausdruck die geerdeten Interpretationen (grounded interpretations) von Sprecher und Adressat separat erfasst. Dies ermöglicht es uns nachzuzeichnen, wie Verständnis entsteht, abweicht und im Zeitverlauf repariert wird. Mithilfe eines schema-basierten LLM-Annotationspipelines erhalten wir 13.000 annotierte Referenzausdrücke mit Reliabilitätsschätzungen und analysieren die resultierenden Verständniszustände. Die Ergebnisse zeigen, dass vollständige Missverständnisse selten sind, sobald lexikalische Varianten vereinheitlicht wurden, dass jedoch systematisch Diskrepanzen aufgrund von Mehrdeutigkeiten (multiplicity discrepancies) zu Abweichungen führen. Dies offenbart, wie scheinbarer Common Ground referenzielle Fehlausrichtungen maskieren kann. Unser Framework bietet sowohl eine Ressource als auch eine analytische Linse für die Erforschung geerdeter Missverständnisse und für die Evaluation der Fähigkeit von (V)LLMs, perspektivenabhängiges Grounding in kollaborativen Dialogen zu modellieren.
English
Collaborative dialogue relies on participants incrementally establishing
common ground, yet in asymmetric settings they may believe they agree while
referring to different entities. We introduce a perspectivist annotation scheme
for the HCRC MapTask corpus (Anderson et al., 1991) that separately captures
speaker and addressee grounded interpretations for each reference expression,
enabling us to trace how understanding emerges, diverges, and repairs over
time. Using a scheme-constrained LLM annotation pipeline, we obtain 13k
annotated reference expressions with reliability estimates and analyze the
resulting understanding states. The results show that full misunderstandings
are rare once lexical variants are unified, but multiplicity discrepancies
systematically induce divergences, revealing how apparent grounding can mask
referential misalignment. Our framework provides both a resource and an
analytic lens for studying grounded misunderstanding and for evaluating
(V)LLMs' capacity to model perspective-dependent grounding in collaborative
dialogue.