ChatPaper.aiChatPaper

Quando Explicabilidade Encontra Privacidade: Uma Investigação na Interseção entre Explicabilidade Pós-Hoc e Privacidade Diferencial no Contexto de Processamento de Linguagem Natural

When Explainability Meets Privacy: An Investigation at the Intersection of Post-hoc Explainability and Differential Privacy in the Context of Natural Language Processing

August 14, 2025
Autores: Mahdi Dhaini, Stephen Meisenbacher, Ege Erdogan, Florian Matthes, Gjergji Kasneci
cs.AI

Resumo

No estudo do Processamento de Linguagem Natural (PLN) confiável, diversos campos de pesquisa importantes emergiram, incluindo os de explicabilidade e privacidade. Embora o interesse em PLN explicável e que preserve a privacidade tenha aumentado consideravelmente nos últimos anos, ainda há uma falta de investigação na interseção entre os dois. Isso deixa uma lacuna significativa na compreensão de se é possível alcançar tanto a explicabilidade quanto a privacidade, ou se os dois estão em conflito. Neste trabalho, realizamos uma investigação empírica sobre a relação de troca entre privacidade e explicabilidade no contexto do PLN, guiados pelos métodos abrangentes populares de Privacidade Diferencial (DP) e Explicabilidade Pós-hoc. Nossas descobertas incluem uma visão sobre a complexa relação entre privacidade e explicabilidade, que é influenciada por diversos fatores, incluindo a natureza da tarefa subsequente e a escolha do método de privatização de texto e de explicabilidade. Com isso, destacamos o potencial para que privacidade e explicabilidade coexistam e resumimos nossas descobertas em uma coleção de recomendações práticas para trabalhos futuros nessa importante interseção.
English
In the study of trustworthy Natural Language Processing (NLP), a number of important research fields have emerged, including that of explainability and privacy. While research interest in both explainable and privacy-preserving NLP has increased considerably in recent years, there remains a lack of investigation at the intersection of the two. This leaves a considerable gap in understanding of whether achieving both explainability and privacy is possible, or whether the two are at odds with each other. In this work, we conduct an empirical investigation into the privacy-explainability trade-off in the context of NLP, guided by the popular overarching methods of Differential Privacy (DP) and Post-hoc Explainability. Our findings include a view into the intricate relationship between privacy and explainability, which is formed by a number of factors, including the nature of the downstream task and choice of the text privatization and explainability method. In this, we highlight the potential for privacy and explainability to co-exist, and we summarize our findings in a collection of practical recommendations for future work at this important intersection.
PDF02August 15, 2025