L'équité peut-elle être suggérée ? Stratégies de réduction des biais par prompts dans les systèmes de recommandation à enjeux élevés
Can Fairness Be Prompted? Prompt-Based Debiasing Strategies in High-Stakes Recommendations
March 13, 2026
Auteurs: Mihaela Rotar, Theresia Veronika Rampisela, Maria Maistro
cs.AI
Résumé
Les grands modèles de langage (LLM) peuvent inférer des attributs sensibles tels que le genre ou l'âge à partir d'indices indirects comme les noms et les pronoms, ce qui risque de biaiser les recommandations. Bien que plusieurs méthodes de débiaisage existent, elles nécessitent un accès aux poids des LLM, sont coûteuses en calcul et ne peuvent être utilisées par des non-spécialistes. Pour combler cette lacune, nous étudions les biais implicites dans les systèmes de recommandation basés sur les LLM (LLMRecs) et explorons si des stratégies fondées sur l'ingénierie des prompts peuvent constituer une approche de débiaisage légère et facile à utiliser. Nous proposons trois stratégies de prompt conscientes des biais pour les LLMRecs. À notre connaissance, il s'agit de la première étude sur les approches de débiaisage par prompt dans les LLMRecs qui se concentre sur l'équité entre groupes d'utilisateurs. Nos expériences avec 3 LLM, 4 modèles de prompt, 9 valeurs d'attributs sensibles et 2 jeux de données montrent que notre approche de débiaisage, qui consiste à demander explicitement à un LLM d'être équitable, peut améliorer l'équité jusqu'à 74% tout en maintenant une efficacité comparable, mais peut parfois sur-promouvoir certains groupes démographiques.
English
Large Language Models (LLMs) can infer sensitive attributes such as gender or age from indirect cues like names and pronouns, potentially biasing recommendations. While several debiasing methods exist, they require access to the LLMs' weights, are computationally costly, and cannot be used by lay users. To address this gap, we investigate implicit biases in LLM Recommenders (LLMRecs) and explore whether prompt-based strategies can serve as a lightweight and easy-to-use debiasing approach. We contribute three bias-aware prompting strategies for LLMRecs. To our knowledge, this is the first study on prompt-based debiasing approaches in LLMRecs that focuses on group fairness for users. Our experiments with 3 LLMs, 4 prompt templates, 9 sensitive attribute values, and 2 datasets show that our proposed debiasing approach, which instructs an LLM to be fair, can improve fairness by up to 74% while retaining comparable effectiveness, but might overpromote specific demographic groups in some cases.