L'Equità Può Essere Sollecitata? Strategie di Debiasing Basate su Prompt nelle Raccomandazioni ad Alto Rischio
Can Fairness Be Prompted? Prompt-Based Debiasing Strategies in High-Stakes Recommendations
March 13, 2026
Autori: Mihaela Rotar, Theresia Veronika Rampisela, Maria Maistro
cs.AI
Abstract
I modelli linguistici di grandi dimensioni (LLM) possono dedurre attributi sensibili come genere o età da indizi indiretti come nomi e pronomi, potenzialmente influenzando le raccomandazioni in modo distorto. Sebbene esistano diversi metodi di mitigazione del bias, questi richiedono l'accesso ai pesi degli LLM, sono computazionalmente costosi e non possono essere utilizzati da utenti non esperti. Per colmare questa lacuna, investigiamo i bias impliciti nei sistemi di raccomandazione basati su LLM (LLMRecs) ed esploriamo se strategie basate su prompt possano rappresentare un approccio di mitigazione leggero e facile da usare. Proponiamo tre strategie di prompt consapevoli del bias per LLMRecs. A nostra conoscenza, questo è il primo studio sugli approcci di mitigazione del bias basati su prompt negli LLMRecs che si concentra sull'equità di gruppo per gli utenti. I nostri esperimenti con 3 LLM, 4 template di prompt, 9 valori di attributi sensibili e 2 dataset mostrano che il nostro approccio proposto, che istruisce un LLM a essere equo, può migliorare l'equità fino al 74% mantenendo un'efficacia comparabile, ma potrebbe in alcuni casi sovra-promuovere specifici gruppi demografici.
English
Large Language Models (LLMs) can infer sensitive attributes such as gender or age from indirect cues like names and pronouns, potentially biasing recommendations. While several debiasing methods exist, they require access to the LLMs' weights, are computationally costly, and cannot be used by lay users. To address this gap, we investigate implicit biases in LLM Recommenders (LLMRecs) and explore whether prompt-based strategies can serve as a lightweight and easy-to-use debiasing approach. We contribute three bias-aware prompting strategies for LLMRecs. To our knowledge, this is the first study on prompt-based debiasing approaches in LLMRecs that focuses on group fairness for users. Our experiments with 3 LLMs, 4 prompt templates, 9 sensitive attribute values, and 2 datasets show that our proposed debiasing approach, which instructs an LLM to be fair, can improve fairness by up to 74% while retaining comparable effectiveness, but might overpromote specific demographic groups in some cases.