Можно ли обеспечить справедливость с помощью промптов? Промпт-стратегии снижения смещений в рекомендательных системах высокой важности
Can Fairness Be Prompted? Prompt-Based Debiasing Strategies in High-Stakes Recommendations
March 13, 2026
Авторы: Mihaela Rotar, Theresia Veronika Rampisela, Maria Maistro
cs.AI
Аннотация
Крупные языковые модели (LLM) способны выводить конфиденциальные атрибуты, такие как пол или возраст, из косвенных признаков вроде имен и местоимений, что может приводить к смещенным рекомендациям. Хотя существует несколько методов устранения смещений, они требуют доступа к весам моделей, вычислительно затратны и недоступны для обычных пользователей. Для решения этой проблемы мы исследуем скрытые смещения в рекомендательных системах на основе LLM (LLMRecs) и изучаем возможность использования промпт-стратегий в качестве легковесного и удобного подхода к устранению смещений. Мы предлагаем три стратегии промптинга с учетом смещений для LLMRecs. Насколько нам известно, это первое исследование промпт-методов устранения смещений в LLMRecs, ориентированное на групповую справедливость для пользователей. Наши эксперименты с 3 LLM, 4 шаблонами промптов, 9 значениями конфиденциальных атрибутов и 2 наборами данных показывают, что предложенный подход, инструктирующий LLM быть справедливой, может улучшить беспристрастность до 74% при сохранении сопоставимой эффективности, но в некоторых случаях может чрезмерно продвигать определенные демографические группы.
English
Large Language Models (LLMs) can infer sensitive attributes such as gender or age from indirect cues like names and pronouns, potentially biasing recommendations. While several debiasing methods exist, they require access to the LLMs' weights, are computationally costly, and cannot be used by lay users. To address this gap, we investigate implicit biases in LLM Recommenders (LLMRecs) and explore whether prompt-based strategies can serve as a lightweight and easy-to-use debiasing approach. We contribute three bias-aware prompting strategies for LLMRecs. To our knowledge, this is the first study on prompt-based debiasing approaches in LLMRecs that focuses on group fairness for users. Our experiments with 3 LLMs, 4 prompt templates, 9 sensitive attribute values, and 2 datasets show that our proposed debiasing approach, which instructs an LLM to be fair, can improve fairness by up to 74% while retaining comparable effectiveness, but might overpromote specific demographic groups in some cases.