Quand l'explicabilité rencontre la confidentialité : Une investigation à l'intersection de l'explicabilité post-hoc et de la confidentialité différentielle dans le contexte du traitement du langage naturel
When Explainability Meets Privacy: An Investigation at the Intersection of Post-hoc Explainability and Differential Privacy in the Context of Natural Language Processing
August 14, 2025
papers.authors: Mahdi Dhaini, Stephen Meisenbacher, Ege Erdogan, Florian Matthes, Gjergji Kasneci
cs.AI
papers.abstract
Dans l'étude du traitement du langage naturel (NLP) digne de confiance, plusieurs domaines de recherche importants ont émergé, notamment ceux de l'explicabilité et de la confidentialité. Bien que l'intérêt pour le NLP explicable et préservant la confidentialité ait considérablement augmenté ces dernières années, il manque encore des investigations à l'intersection des deux. Cela laisse un vide important dans la compréhension de la possibilité d'atteindre à la fois l'explicabilité et la confidentialité, ou si ces deux objectifs sont en conflit. Dans ce travail, nous menons une étude empirique sur le compromis entre confidentialité et explicabilité dans le contexte du NLP, guidés par les méthodes globales populaires de la confidentialité différentielle (DP) et de l'explicabilité post-hoc. Nos résultats incluent une vision de la relation complexe entre confidentialité et explicabilité, qui est influencée par plusieurs facteurs, notamment la nature de la tâche en aval et le choix de la méthode de privatisation du texte et d'explicabilité. Nous mettons en lumière le potentiel de coexistence entre confidentialité et explicabilité, et nous résumons nos conclusions dans un ensemble de recommandations pratiques pour les travaux futurs à cette intersection cruciale.
English
In the study of trustworthy Natural Language Processing (NLP), a number of
important research fields have emerged, including that of
explainability and privacy. While research interest in both
explainable and privacy-preserving NLP has increased considerably in recent
years, there remains a lack of investigation at the intersection of the two.
This leaves a considerable gap in understanding of whether achieving
both explainability and privacy is possible, or whether the two are at
odds with each other. In this work, we conduct an empirical investigation into
the privacy-explainability trade-off in the context of NLP, guided by the
popular overarching methods of Differential Privacy (DP) and Post-hoc
Explainability. Our findings include a view into the intricate relationship
between privacy and explainability, which is formed by a number of factors,
including the nature of the downstream task and choice of the text
privatization and explainability method. In this, we highlight the potential
for privacy and explainability to co-exist, and we summarize our findings in a
collection of practical recommendations for future work at this important
intersection.