Kan Eerlijkheid Worden Geprompt? Prompt-Gebaseerde Debiasing Strategieën in Hoog-Risico Aanbevelingen
Can Fairness Be Prompted? Prompt-Based Debiasing Strategies in High-Stakes Recommendations
March 13, 2026
Auteurs: Mihaela Rotar, Theresia Veronika Rampisela, Maria Maistro
cs.AI
Samenvatting
Grote Taalmodellen (LLM's) kunnen gevoelige kenmerken zoals geslacht of leeftijd afleiden uit indirecte aanwijzingen zoals namen en voornaamwoorden, wat aanbevelingen kan bevooroordelen. Hoewel er verschillende methoden voor debiasing bestaan, vereisen deze toegang tot de gewichten van de LLM's, zijn ze rekenkundig kostbaar en kunnen ze niet door leken worden gebruikt. Om deze kloof te dichten, onderzoeken we impliciete vooroordelen in LLM-aanbevelingssystemen (LLMRecs) en exploreren we of promptgebaseerde strategieën kunnen dienen als een lichtgewicht en gebruiksvriendelijke debiasing-aanpak. Wij dragen drie bias-bewuste promptingstrategieën voor LLMRecs bij. Voor zover wij weten, is dit de eerste studie naar promptgebaseerde debiasing-aanpakken in LLMRecs die zich richt op groepsbillijkheid voor gebruikers. Onze experimenten met 3 LLM's, 4 promptsjablonen, 9 gevoelige kenmerkwaarden en 2 datasets tonen aan dat onze voorgestelde debiasing-aanpak, waarbij een LLM wordt geïnstrueerd om billijk te zijn, de billijkheid met tot 74% kan verbeteren met behoud van vergelijkbare effectiviteit, maar in sommige gevallen specifieke demografische groepen mogelijk overpromoot.
English
Large Language Models (LLMs) can infer sensitive attributes such as gender or age from indirect cues like names and pronouns, potentially biasing recommendations. While several debiasing methods exist, they require access to the LLMs' weights, are computationally costly, and cannot be used by lay users. To address this gap, we investigate implicit biases in LLM Recommenders (LLMRecs) and explore whether prompt-based strategies can serve as a lightweight and easy-to-use debiasing approach. We contribute three bias-aware prompting strategies for LLMRecs. To our knowledge, this is the first study on prompt-based debiasing approaches in LLMRecs that focuses on group fairness for users. Our experiments with 3 LLMs, 4 prompt templates, 9 sensitive attribute values, and 2 datasets show that our proposed debiasing approach, which instructs an LLM to be fair, can improve fairness by up to 74% while retaining comparable effectiveness, but might overpromote specific demographic groups in some cases.