A Justiça Pode Ser Estimulada? Estratégias de Mitigação de Viés Baseadas em Prompts em Recomendações de Alto Impacto
Can Fairness Be Prompted? Prompt-Based Debiasing Strategies in High-Stakes Recommendations
March 13, 2026
Autores: Mihaela Rotar, Theresia Veronika Rampisela, Maria Maistro
cs.AI
Resumo
Os Grandes Modelos de Linguagem (LLMs) podem inferir atributos sensíveis, como género ou idade, a partir de pistas indiretas como nomes e pronomes, potencialmente enviesando recomendações. Embora existam vários métodos de mitigação de enviesamento, estes requerem acesso aos pesos dos LLMs, são computacionalmente dispendiosos e não podem ser utilizados por utilizadores leigos. Para colmatar esta lacuna, investigamos os enviesamentos implícitos em Sistemas de Recomendação baseados em LLMs (LLMRecs) e exploramos se estratégias baseadas em *prompts* podem servir como uma abordagem de mitigação de enviesamento leve e de fácil utilização. Contribuímos com três estratégias de *prompting* conscientes do enviesamento para LLMRecs. Até onde sabemos, este é o primeiro estudo sobre abordagens de mitigação de enviesamento baseadas em *prompts* em LLMRecs que se foca na equidade grupal para os utilizadores. As nossas experiências com 3 LLMs, 4 modelos de *prompt*, 9 valores de atributos sensíveis e 2 conjuntos de dados mostram que a nossa abordagem de mitigação proposta, que instrui um LLM a ser justo, pode melhorar a equidade em até 74%, mantendo uma eficácia comparável, mas pode, nalguns casos, promover excessivamente grupos demográficos específicos.
English
Large Language Models (LLMs) can infer sensitive attributes such as gender or age from indirect cues like names and pronouns, potentially biasing recommendations. While several debiasing methods exist, they require access to the LLMs' weights, are computationally costly, and cannot be used by lay users. To address this gap, we investigate implicit biases in LLM Recommenders (LLMRecs) and explore whether prompt-based strategies can serve as a lightweight and easy-to-use debiasing approach. We contribute three bias-aware prompting strategies for LLMRecs. To our knowledge, this is the first study on prompt-based debiasing approaches in LLMRecs that focuses on group fairness for users. Our experiments with 3 LLMs, 4 prompt templates, 9 sensitive attribute values, and 2 datasets show that our proposed debiasing approach, which instructs an LLM to be fair, can improve fairness by up to 74% while retaining comparable effectiveness, but might overpromote specific demographic groups in some cases.