Wenn Erklärbarkeit auf Privatsphäre trifft: Eine Untersuchung an der Schnittstelle von Post-hoc-Erklärbarkeit und Differential Privacy im Kontext der Verarbeitung natürlicher Sprache
When Explainability Meets Privacy: An Investigation at the Intersection of Post-hoc Explainability and Differential Privacy in the Context of Natural Language Processing
August 14, 2025
papers.authors: Mahdi Dhaini, Stephen Meisenbacher, Ege Erdogan, Florian Matthes, Gjergji Kasneci
cs.AI
papers.abstract
In der Erforschung vertrauenswürdiger Natural Language Processing (NLP) haben sich mehrere wichtige Forschungsgebiete herausgebildet, darunter die Bereiche Erklärbarkeit und Privatsphäre. Während das Forschungsinteresse an sowohl erklärbarer als auch datenschutzbewahrender NLP in den letzten Jahren erheblich gestiegen ist, besteht nach wie vor ein Mangel an Untersuchungen an der Schnittstelle dieser beiden Bereiche. Dies hinterlässt eine erhebliche Lücke im Verständnis darüber, ob sowohl Erklärbarkeit als auch Privatsphäre erreicht werden können oder ob sie sich gegenseitig ausschließen. In dieser Arbeit führen wir eine empirische Untersuchung des Privacy-Explainability-Trade-offs im Kontext von NLP durch, geleitet von den weit verbreiteten übergreifenden Methoden der Differential Privacy (DP) und der Post-hoc-Erklärbarkeit. Unsere Ergebnisse bieten einen Einblick in das komplexe Verhältnis zwischen Privatsphäre und Erklärbarkeit, das durch eine Reihe von Faktoren geprägt wird, darunter die Art der nachgelagerten Aufgabe sowie die Wahl der Textprivatisierungs- und Erklärbarkeitsmethode. Dabei heben wir das Potenzial für ein gleichzeitiges Bestehen von Privatsphäre und Erklärbarkeit hervor und fassen unsere Erkenntnisse in einer Sammlung praktischer Empfehlungen für zukünftige Arbeiten an dieser wichtigen Schnittstelle zusammen.
English
In the study of trustworthy Natural Language Processing (NLP), a number of
important research fields have emerged, including that of
explainability and privacy. While research interest in both
explainable and privacy-preserving NLP has increased considerably in recent
years, there remains a lack of investigation at the intersection of the two.
This leaves a considerable gap in understanding of whether achieving
both explainability and privacy is possible, or whether the two are at
odds with each other. In this work, we conduct an empirical investigation into
the privacy-explainability trade-off in the context of NLP, guided by the
popular overarching methods of Differential Privacy (DP) and Post-hoc
Explainability. Our findings include a view into the intricate relationship
between privacy and explainability, which is formed by a number of factors,
including the nature of the downstream task and choice of the text
privatization and explainability method. In this, we highlight the potential
for privacy and explainability to co-exist, and we summarize our findings in a
collection of practical recommendations for future work at this important
intersection.