ChatPaper.aiChatPaper

説明可能性とプライバシーの交差点:自然言語処理の文脈における事後説明可能性と差分プライバシーの相互関係に関する考察

When Explainability Meets Privacy: An Investigation at the Intersection of Post-hoc Explainability and Differential Privacy in the Context of Natural Language Processing

August 14, 2025
著者: Mahdi Dhaini, Stephen Meisenbacher, Ege Erdogan, Florian Matthes, Gjergji Kasneci
cs.AI

要旨

信頼性の高い自然言語処理(NLP)の研究において、説明可能性とプライバシーを含むいくつかの重要な研究分野が登場しています。説明可能なNLPとプライバシー保護を目指すNLPに対する研究関心は近年大幅に高まっていますが、この2つの交差点に関する調査は依然として不足しています。これにより、説明可能性とプライバシーの両立が可能なのか、あるいは互いに相反するものなのかについての理解に大きなギャップが生じています。本研究では、差分プライバシー(DP)と事後説明可能性という広く使われている手法をガイドとして、NLPの文脈におけるプライバシーと説明可能性のトレードオフについて実証的な調査を行います。私たちの調査結果には、下流タスクの性質やテキストのプライバシー保護手法および説明可能性手法の選択など、複数の要因によって形成されるプライバシーと説明可能性の複雑な関係性が含まれます。これを通じて、プライバシーと説明可能性が共存する可能性を強調し、この重要な交差点における今後の研究のための実践的な推奨事項をまとめます。
English
In the study of trustworthy Natural Language Processing (NLP), a number of important research fields have emerged, including that of explainability and privacy. While research interest in both explainable and privacy-preserving NLP has increased considerably in recent years, there remains a lack of investigation at the intersection of the two. This leaves a considerable gap in understanding of whether achieving both explainability and privacy is possible, or whether the two are at odds with each other. In this work, we conduct an empirical investigation into the privacy-explainability trade-off in the context of NLP, guided by the popular overarching methods of Differential Privacy (DP) and Post-hoc Explainability. Our findings include a view into the intricate relationship between privacy and explainability, which is formed by a number of factors, including the nature of the downstream task and choice of the text privatization and explainability method. In this, we highlight the potential for privacy and explainability to co-exist, and we summarize our findings in a collection of practical recommendations for future work at this important intersection.
PDF02August 15, 2025