Cuando la Explicabilidad Encuentra la Privacidad: Una Investigación en la Intersección de la Explicabilidad Post-hoc y la Privacidad Diferencial en el Contexto del Procesamiento del Lenguaje Natural
When Explainability Meets Privacy: An Investigation at the Intersection of Post-hoc Explainability and Differential Privacy in the Context of Natural Language Processing
August 14, 2025
Autores: Mahdi Dhaini, Stephen Meisenbacher, Ege Erdogan, Florian Matthes, Gjergji Kasneci
cs.AI
Resumen
En el estudio del Procesamiento del Lenguaje Natural (PLN) confiable, han surgido varios campos de investigación importantes, incluyendo la explicabilidad y la privacidad. Aunque el interés en la investigación tanto del PLN explicable como del que preserva la privacidad ha aumentado considerablemente en los últimos años, aún falta investigación en la intersección de ambos. Esto deja un vacío considerable en la comprensión de si es posible lograr tanto la explicabilidad como la privacidad, o si estos dos objetivos están en conflicto. En este trabajo, realizamos una investigación empírica sobre la relación entre privacidad y explicabilidad en el contexto del PLN, guiados por los métodos predominantes de Privacidad Diferencial (DP) y Explicabilidad Post-hoc. Nuestros hallazgos incluyen una visión de la compleja relación entre privacidad y explicabilidad, que está influenciada por varios factores, como la naturaleza de la tarea específica y la elección del método de privatización de texto y explicabilidad. En este sentido, destacamos el potencial para que la privacidad y la explicabilidad coexistan, y resumimos nuestros hallazgos en una colección de recomendaciones prácticas para futuros trabajos en esta importante intersección.
English
In the study of trustworthy Natural Language Processing (NLP), a number of
important research fields have emerged, including that of
explainability and privacy. While research interest in both
explainable and privacy-preserving NLP has increased considerably in recent
years, there remains a lack of investigation at the intersection of the two.
This leaves a considerable gap in understanding of whether achieving
both explainability and privacy is possible, or whether the two are at
odds with each other. In this work, we conduct an empirical investigation into
the privacy-explainability trade-off in the context of NLP, guided by the
popular overarching methods of Differential Privacy (DP) and Post-hoc
Explainability. Our findings include a view into the intricate relationship
between privacy and explainability, which is formed by a number of factors,
including the nature of the downstream task and choice of the text
privatization and explainability method. In this, we highlight the potential
for privacy and explainability to co-exist, and we summarize our findings in a
collection of practical recommendations for future work at this important
intersection.